Meus Apps


Inteligência Artificial: Alucinação da tecnologia pode ser crime, diz jurista

Postado em: 24/08/2024 | Por: Emerson Alves

As alucinações de sistemas de Inteligência Artificial, onde respostas incorretas ou inventadas são geradas, podem resultar em crimes e responsabilização das empresas desenvolvedoras, alerta jurista.

Com o avanço da Inteligência Artificial (IA), um dos maiores desafios que surgiram é a tendência desses sistemas de produzir “alucinações” — ou seja, respostas sem sentido, equivocadas ou inventadas, que são apresentadas como se fossem verdadeiras. Esse problema tem levantado preocupações jurídicas, com especialistas afirmando que tais situações podem configurar crimes, dependendo das circunstâncias.

Leia também: Gemini: Como a IA do Google pode organizar o seu e-mail.

O que são “alucinações” da IA?

As chamadas “alucinações” em IA referem-se a situações em que um modelo de IA gera respostas que não têm fundamento na realidade, mas que parecem coerentes em termos de forma. Isso ocorre porque os modelos de IA, como o ChatGPT, são treinados para reconhecer padrões e criar respostas baseadas em probabilidades, sem compreender verdadeiramente o contexto ou o mundo real.

Essas alucinações são comuns em grandes modelos de linguagem (LLMs), como o ChatGPT, onde a IA pode criar respostas que parecem plausíveis, mas que não são factualmente corretas. Segundo Frederico Comério, CTO da Intelliway, “eles combinam palavras e informações de maneira coerente, mas sem garantir que o conteúdo criado seja sempre preciso ou verdadeiro”.

Quando as alucinações da IA podem ser crimes?

As “alucinações” de IA podem ter consequências sérias, como explicou a advogada especialista em direito do consumidor Luiza Simões. Ela citou o caso da deputada estadual Renata Souza, do Rio de Janeiro, que foi vítima de “racismo algorítmico” quando uma plataforma de IA gerou a imagem de uma mulher negra segurando uma arma, em vez de um personagem ao estilo Pixar, como solicitado. Segundo a advogada, esse tipo de erro pode ser considerado um crime, pois ofende diretamente a honra da deputada e de todas as mulheres que ela representa.

O presidente da Comissão de Proteção de Dados, Privacidade e Inteligência Artificial da OAB-ES, Jorge Alexandre Fagundes, reforça que as empresas responsáveis por desenvolver ou disponibilizar sistemas de IA podem ser processadas se os consumidores forem prejudicados por essas falhas. Ele compara essa situação à lógica de responsabilização objetiva prevista no Código de Defesa do Consumidor (CDC), onde a empresa deve garantir que o sistema opere de maneira segura e confiável.

Implicações em outras áreas

As consequências das alucinações da IA não se limitam à criação de imagens ou textos incorretos. Na área da saúde, por exemplo, erros de IA podem levar a diagnósticos ou recomendações de tratamento imprecisos, colocando pacientes em risco. No setor de transporte, carros autônomos que dependem de IA também podem sofrer alucinações, resultando em acidentes e lesões.

Casos de alucinação já levaram a situações extremas, como o ChatGPT “matando” pessoas em suas respostas, descrevendo detalhadamente mortes que nunca ocorreram. Nesses casos, os afetados podem sentir-se ofendidos e processar as empresas responsáveis.

Esforços para mitigar as alucinações da IA

Pesquisadores da Universidade de Oxford estão trabalhando em métodos para resolver o problema das alucinações, submetendo as respostas geradas por IA à avaliação de outros sistemas de IA. Esses esforços são parte de um movimento maior para tornar os modelos de linguagem mais confiáveis, especialmente em áreas críticas como a medicina.

Para mitigar essas alucinações, é essencial combinar a IA com fontes de conhecimento confiáveis, implementar mecanismos de verificação de fatos e promover a supervisão humana, sugere Frederico Comério.

O futuro da regulamentação

Embora as alucinações de IA sejam uma preocupação crescente, ainda não há uma regulamentação específica para lidar com essas questões. É provável que casos como o da deputada Renata Souza sirvam de referência para futuras leis e regulamentações que busquem proteger os consumidores e responsabilizar as empresas desenvolvedoras de IA.