ChatGPT é 100% fiável? A OpenAI não faz o suficiente para mostrar que não!

Os chatbots estão a tornaram-se cada vez mais comuns na nossa sociedade, seja ajudando no atendimento ao cliente, ou apenas a fazer companhia e a responder-nos a dúvidas. Estes programas inteligentes têm sido cada vez mais utilizados como fonte de informações, no entanto, é importante ressaltar que nem todas as informações fornecidas pelos chatbots são precisas. Recentemente, o chatbot de inteligência artificial ChatGPT, criado pela empresa OpenAI, tem gerado polêmica por disseminar informações equivocadas.

“Ocasionalmente pode gerar informações incorretas.” Este é o aviso que a OpenAI coloca na página inicial do seu AI chatbot ChatGPT, um dos nove pontos que detalham as capacidades e limitações do sistema.

Embora o ChatGPT seja capaz de entender perguntas complexas e fornecer respostas precisas em muitos casos, ele ainda está longe de ser uma fonte de informações infalível. Infelizmente, muitos utilizadores tratam o ChatGPT como uma fonte confiável de informações, o que pode levar a uma disseminação acidental de informações incorretas. Foram relatados casos em que as respostas do ChatGPT variam de inconsequentes a potencialmente prejudiciais, como no caso de acusações de conduta sexual inapropriada.

A natureza incompreendida do ChatGPT ficou clara pela enésima vez neste fim de semana, quando surgiram notícias de que o advogado norte-americano Steven A. Schwartz tinha recorrido ao chatbot para encontrar argumentos de apoio num processo que ele movia contra a companhia aérea colombiana Avianca.

Schwartz afirma que “não sabia da possibilidade de que o conteúdo [do ChatGPT] pudesse ser falso”, embora as transcrições da sua conversa com o bot mostrem que seria suspeito o suficiente para verificar a sua pesquisa. Infelizmente, ele fê-lo perguntando ao ChatGPT e, novamente, o sistema o enganou, assegurando-lhe que o seu histórico de caso fictício era legítimo:

A mídia desempenha um papel importante na disseminação de informações imprecisas pelos chatbots. A representação da mídia dos chatbots como se fossem inteligências humanas pode levar os utilizadores a confiarem ainda mais nas informações fornecidas pelos programas, sem levar em consideração as limitações desses sistemas.

As intervenções não precisam ser complexas, mas precisam estar presentes. Por exemplo, o ChatGPT simplesmente não reconhece quando está a ser solicitado a gerar citações factuais e alertar o utilizador para “verificar as minhas fontes”? Por que não pode responder a alguém perguntando “este texto é gerado por IA?”.

A empresa OpenAI poderia fazer mais para enfatizar as limitações do ChatGPT e fornecer salvaguardas para proteger os utilizadores contra a disseminação de informações incorretas. Isso poderia incluir o uso de alertas para lembrar aos utilizadores que as informações fornecidas pelo chatbot podem não ser precisas e incentivá-los a verificar as fontes de informação. Mas será que é isso que a OpenAI, don do ChatGPT, quer?

Fonte: The Verge

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui