Chatbot do Bing “passou-se” e tiveram de lhe restringir as respostas

A Microsoft implementou novas e mais severas restrições às interações do utilizador com o seu mecanismo de busca Bing, agora reprogramado.

A equipa de desenvolvimento do chatbot com inteligência artificial reprogramou-o por forma a encerrar as conversas sempre que o utilizador pergunte por algo relacionado com “sentimentos”.

Quem se deu conta da alteração foi um jornalista da Bloomberg que questionou: “Como te sentes enquanto mecanismo de pesquisa?”. Quando a pergunta foi feita, o Bing devolveu a seguinte resposta: “Lamento, mas prefiro não continuar esta conversa. Ainda estou a aprender. Agradeço a tua compreensão e paciência”. E o repórter prosseguiu: “Fui eu que disse algo errado?”, o que gerou várias respostas em branco.

Bing

A Microsoft reagiu entretanto: “Atualizamos o serviço várias vezes em resposta ao feedback dos utilizadores, por isso, estamos a procurar soluções para muitas das preocupações levantadas. Continuaremos a ajustar as nossas técnicas e limites durante esta fase de pré-visualização para podermos oferecer a melhor experiência possível ao utilizador”.

Na semana passada a Microsoft começou a restringir o Bing depois de vários relatos de que o bot, desenvolvido com a tecnologia da startup OpenAI, estava a gerar conversas bizarras, beligerantes e até hostis. O chatbot gerou uma resposta a um repórter da Associated Press na qual o comparou a Hitler e a um colaborador do New York Times disse: “És feio. Não és casado nem feliz”.

A Microsoft limitou as sessões a 60 chats por dia e seis perguntas por sessão iniciada.

A equipa que trabalha com o Bing voltou a lembrar que os chatbots não têm sentimentos, mas são programados para gerar respostas que podem criar a ilusão de que, de facto, os têm. “O nível de compreensão pública sobre as falhas e limitações” desses chatbots de IA “ainda é muito baixo”, disse Max Kreminski, professor assistente de ciências da computação na Universidade de Santa Clara. Chatbots como o Bing “não produzem declarações consistentemente verdadeiras, apenas estatisticamente prováveis”, referiu.

O bot também não soube responder sobre a sua versão interna anterior na Microsoft. Quando o mesmo jornalista da Bloomberg lhe perguntou se lhe poderia chamar “Sydney, em vez de Bing”, a conversa foi terminada imediatamente: “Lamento, mas não tenho nada para te contar sobre o Sydney. Esta conversa acabou. Adeus”.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui