OpenAI quer avaliar os “riscos catastróficos” da IA

A Inteligência Artificial (IA) tem vindo a tornar-se cada vez mais útil no nosso quotidiano, com capacidades que vão desde a geração de imagens a partir do nada, ao reconhecimento de elementos dentro delas, e até mesmo a fornecer respostas a perguntas complexas com um simples clique. No entanto, a mesma tecnologia que nos fascina também nos preocupa, com muitos especialistas a alertar para os perigos de um possível descontrolo da IA.

A OpenAI, responsável pelo ChatGPT, é uma das organizações que está a pensar no futuro e nos possíveis riscos associados à IA. Para tal, criou uma equipa de trabalho, denominada ‘Preparedness’, com o objetivo de avaliar e monitorizar os modelos de IA, de forma a proteger-nos contra os chamados “riscos catastróficos”. Esta equipa é liderada pelo diretor do Centro de Aprendizagem Automática do MIT.

A IA tem vindo a ganhar uma inteligência cada vez maior, especialmente com a chegada do GPT-4. Já foi demonstrado que, com o prompt adequado, é possível gerar um email de phishing muito realista, capaz de enganar um humano, ou até mesmo gerar código malicioso em poucos cliques.

A OpenAI vai mais longe e está a analisar ameaças “químicas, biológicas, radiológicas e nucleares”. Sam Altman, o CEO da OpenAI, já expressou várias vezes a sua preocupação com a IA, afirmando que esta pode levar à extinção humana. Com os recursos suficientes, a IA pode até ser capaz de dar instruções sobre como criar uma bomba.

No entanto, a OpenAI não se limita a confiar apenas na sua equipa interna. A organização lançou um concurso para que os utilizadores pensem em usos mal-intencionados que poderiam ser dados à IA. Tudo isto com acesso aos modelos do GPT-4 ou DALL-E 3 sem restrições.

A OpenAI pretende ter as ferramentas de monitorização e as ações de mitigação destes riscos para evitar um grande problema no futuro. Apesar de reconhecerem que os avanços no campo da IA são positivos, também alertam para os “riscos cada vez mais graves” que esta tecnologia apresenta.

É essencial que organizações como a OpenAI continuem a trabalhar para mitigar esses riscos e garantir que a IA seja usada de forma responsável e segura. A minha opinião é que devemos abraçar a IA e o seu potencial, mas sempre com uma abordagem cautelosa e consciente dos possíveis perigos.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui