CEO do Google surpreendido: “Não entendo bem as capacidades desta IA”

Num mundo onde a tecnologia evolui a um ritmo vertiginoso, a inteligência artificial (IA) tem-se destacado como um dos campos mais promissores e, ao mesmo tempo, mais desafiantes. Recentemente, a Google viu-se obrigada a acelerar o seu passo na corrida da IA, surpreendida pelo avanço significativo de uma empresa até então menos conhecida no grande público: a OpenAI. Esta última, com o seu ChatGPT, prometeu democratizar o acesso a uma IA poderosa, disponibilizando-a a todos os utilizadores.

A Google, gigante das pesquisas na internet, com um domínio de cerca de 90% do mercado, viu-se de repente na posição de ter de reagir. A sua resposta veio na forma de Bard, uma inteligência artificial que, apesar de promissora, chegou ao mercado com alguns problemas iniciais. Estes contratempos incluíram erros graves, como a geração de imagens que distorciam a história, mostrando que a pressa em competir pode levar a resultados menos desejáveis.

Numa entrevista concedida à CBS, altos executivos da Google, incluindo o CEO Sundar Pichai, admitiram algo surpreendente: há capacidades das suas IA, como Bard, que nem eles próprios compreendem totalmente. Este reconhecimento levanta questões profundas sobre a natureza da tecnologia que estamos a criar e a nossa capacidade de controlá-la.

A IA da Google começou a exibir habilidades que não foram explicitamente programadas, como a capacidade de compreender e traduzir o idioma bengalês sem ter sido treinada para tal. Este tipo de aprendizado autónomo e autodidata é simultaneamente fascinante e perturbador, levando a empresa a investigar como foi possível tal feito.

A conversa com os executivos da Google revelou ainda que Bard não procura respostas na internet da mesma forma que o motor de busca tradicional da empresa. Em vez disso, depende de um programa autónomo que gera respostas baseadas no seu próprio “entendimento”. Esta abordagem autodidata tem o potencial de transformar a forma como interagimos com a informação online, mas também levanta questões éticas e de segurança.

A ideia de que estamos a lidar com “caixas negras” na IA sistemas cujos processos internos são opacos até para os seus criadores é uma preocupação crescente. O CEO da Google comparou a complexidade da IA à da mente humana, sugerindo não compreender totalmente o funcionamento de uma IA não é necessariamente um impedimento para a sua utilização.

No entanto, esta comparação pode ser vista como uma simplificação excessiva de um problema muito real. A falta de transparência nos mecanismos de IA pode levar a resultados inesperados e, potencialmente, perigosos. A Scientific American destacou a importância de compreender o funcionamento interno da IA para garantir que os resultados sejam confiáveis e explicáveis.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui