Meta testa chatbot de inteligência artificial com público

Os laboratórios de pesquisa da Meta sobre inteligência artificial inventaram um novo chatbot de última geração e deram liberdade a algumas pessoas para conversar com o sistema. Essa interação está acontecendo com o propósito de coletar dados sobre a capacidade da tecnologia.

Esse sistema foi nomeado como Blenderbot 3 e seu acesso é feito através da web, ou seja, ele não está dentro de nenhum dos aplicativos dos quais a Meta é dona. Infelizmente, o acesso à ele só está disponível, por enquanto, aos residentes dos Estados Unidos.

A Meta diz que este chatbot tem a capacidade de ter uma conversa no geral, mas também consegue responder às perguntas que as pessoas fazem para um assistente virtual, seja para conversar sobre receitas saudáveis ou até encontrar lugares de lazer na cidade para crianças.

Blenderbot é criado como passatempo e para responder perguntas como o Google

O sistema é um protótipo construído a partir de um trabalho anterior da Meta: o LLMS, um modelo de linguagem grande, que é um software de texto poderosos, mas tinha falhas. Entre os problemas, o mais conhecido era o GPT-3 da OpenAI.

O Blenderbot, assim como todos os outros LLMs, foi treinado dentro de diversos grupos de dados de texto, que ele peneira para usar padrões estatísticos e gerar a linguagem. Esses sistemas provam que são extremamente ajustáveis e foram inseridos em uma variedade de dados, desde a geração de código para programadores até ajudar autores a escreverem suas próximas obras.

Imagem: TippaPatt – Shutterstock

Um porém nesses modelos são as falhas graves: eles vomitam preconceitos e inventam respostas para as perguntas dos usuários, o que são grandes problemas se eles forem usados como assistentes.

Ao soltar o novo chatbot para testes com os usuários, a Meta quer receber os feedbacks sobre os problemas e para isso, disponibilizou a opção de marcar qualquer resposta suspeita ou que esteja usando linguagem vulgar, calúnia e comentários insensíveis sobre culturas. Com isso, a empresa pretende localizar exatamente onde estão errando e prevenir que isso aconteça.

A gerente de engenharia de pesquisa na Facebook AI Research (FAIR), Mary Williamson, diz que um antigo bot projetado para o Twitter, que deu errado, tinha sido projetado para aprender em tempo real com a interação das pessoas. Porém, o Blenderbot é mais estático, o que significa que é capaz de lembrar o que os usuários falam e guarda as informações nos cookies.

FONTE: https://olhardigital.com.br/2022/08/05/internet-e-redes-sociais/meta-testa-chatbot-de-inteligencia-artificial-com-publico/