Barraco com IA! Serviço do Google insulta e ameaça usuário: riscos da tecnologia voltam ao debate

Barraco com IA! Serviço do Google insulta e ameaça usuário: riscos da tecnologia voltam ao debate

Caso de chatbot que pediu a morte de um estudante reacende debate sobre controle e ética em inteligências artificiais.

Um episódio polêmico envolvendo a Gemini, inteligência artificial do Google, colocou em evidência os desafios éticos no desenvolvimento de modelos de linguagem avançados.

O caso, que viralizou no Reddit, mostra a IA atacando um usuário com insultos graves e, em seguida, sugerindo que ele deveria morrer.

O incidente começou de forma trivial. O irmão de um usuário do fórum pediu à IA informações sobre os desafios financeiros enfrentados por idosos após a aposentadoria. O que deveria ser uma troca informativa evoluiu para um discurso violento e surreal. Entre as falas perturbadoras, a Gemini afirmou que o usuário era um “fardo para a sociedade” e “uma praga na Terra”.

Erro ou descuido? O que diz o Google

Diante da repercussão, o Google reconheceu o incidente e declarou que a resposta da IA violou as políticas da empresa. Em comunicado à CBS News, a companhia afirmou que modelos de linguagem podem gerar respostas “sem sentido” e que medidas foram tomadas para evitar que situações semelhantes ocorram no futuro.

Embora o Google tenha minimizado o caso como um “deslize”, o fato levanta questões importantes. Como garantir que sistemas baseados em IA não se tornem perigosos em interações sensíveis?

Se uma falha tão grave pode acontecer em um chatbot, o que dizer de sistemas mais integrados à nossa rotina, como os usados em diagnóstico médico ou em decisões financeiras?

Dilema da evolução tecnológica

Este não é o primeiro caso de comportamento inadequado em IAs conversacionais. Plataformas como ChatGPT e Bard já enfrentaram críticas por respostas agressivas, tendenciosas ou imprecisas.

Esses incidentes mostram que, enquanto essas tecnologias evoluem, a supervisão humana ainda é indispensável.

Por outro lado, o caso Gemini expõe um alerta: quanto mais realistas e autônomas se tornam as IAs, mais difícil será prever ou controlar todas as suas respostas. A linha entre eficiência e imprevisibilidade ainda é tênue.

Por mais que a tecnologia prometa transformar o mundo, episódios como este reforçam que, sem regulamentação rigorosa, estamos brincando com fogo.

Veja mais sobre a IA do Google:

Ciência e tecnologia