Meus Apps


Admissibilidade da inteligência artificial no tribunal: Desafios e considerações

Postado em: 25/08/2024 | Por: Emerson Alves

Com o aumento do uso da inteligência artificial (IA), cresce a importância de discutir sua admissibilidade em processos civis e criminais, considerando os desafios únicos que essa tecnologia apresenta.

À medida que a inteligência artificial (IA) se torna mais presente em diversas áreas, incluindo a jurídica, surgem questões sobre como suas evidências podem ser aceitas em tribunais. Embora a IA seja frequentemente vista como um software sofisticado, capaz de igualar ou superar as capacidades cognitivas humanas em determinadas tarefas, na realidade, trata-se apenas de um software que, como outros, gera registros e evidências computacionais. Contudo, devido à sua natureza única, a IA pode exigir novas abordagens para sua admissibilidade como evidência.

Leia também: MariTalk: Chatbot brasileiro supera ChatGPT em compreensão local, mas enfrenta desafios em matemática.

Algoritmos tradicionais vs. algoritmos de IA

Uma diferença fundamental entre a IA e o software tradicional está nos algoritmos que cada um emprega. Enquanto os algoritmos tradicionais produzem sempre o mesmo resultado para uma determinada entrada, os algoritmos de IA podem alterar seus resultados com base em novas entradas. Isso significa que a IA, além de criar registros computacionais, também pode gerar evidências baseadas em dados e suposições incorporadas em seu programa, o que complica sua admissibilidade no tribunal.

Admissibilidade de registros e evidências gerados por computador

No que diz respeito aos registros gerados por computador, sua admissibilidade segue os mesmos padrões que os registros em papel, exigindo a identificação e autenticação adequadas conforme as Regras Federais de Prova. Já as evidências geradas por computador, como simulações dinâmicas, normalmente requerem um perito para atestar que as simulações foram derivadas de princípios aceitos cientificamente, conforme o padrão estabelecido no caso Frye v. United States.

Um dos desafios mais significativos na admissibilidade de evidências geradas por IA está relacionado à avaliação da confiabilidade dos algoritmos. A IA é treinada em dados, e se esses dados forem incompletos ou tendenciosos, a IA pode aprender padrões incorretos, levando a previsões imprecisas. Além disso, a falta de testes rigorosos e independentes dos algoritmos de IA pode resultar em objeções quanto à admissibilidade dessas evidências no tribunal.

O padrão Frye e a necessidade de transparência

O padrão Frye exige que as evidências baseadas em IA sejam fundamentadas em métodos científicos estabelecidos e aceitos. No entanto, a ausência de padrões específicos para testes de algoritmos de IA torna difícil para um perito atestar que essas evidências são confiáveis e geralmente aceitas pela comunidade científica relevante. Antes de admitir evidências de IA, os tribunais devem exigir transparência tanto no funcionamento do sistema de IA quanto na forma como ele chegou às suas conclusões.

Desafios de resiliência e segurança da IA

Outro desafio importante para a admissibilidade de evidências de IA é a resiliência desses sistemas. A IA pode ser suscetível a ataques de spoofing ou práticas adversárias, onde uma IA é usada para enganar outras IAs, levando a resultados incorretos e evidências não confiáveis. Assim, a resiliência da IA, ou sua capacidade de resistir a tentativas de manipulação, é uma consideração crucial para determinar sua admissibilidade.

A aplicação das Regras Federais de Prova na IA

Embora a tecnologia de IA possa exceder a capacidade cognitiva humana em certos aspectos, as regras de prova permanecem as mesmas. Segundo a Regra Federal de Prova 401, uma evidência é relevante se tiver alguma tendência a tornar um fato mais ou menos provável do que seria sem a evidência. A Regra 402 declara que evidências relevantes são admissíveis, a menos que especificamente proibidas, e a Regra 403 permite a exclusão de evidências se seu valor probatório for superado por prejuízos como confusão ou desperdício de tempo.

Para que uma evidência de IA seja admissível, o proponente deve estar disposto a divulgar informações subjacentes suficientes para que a parte adversária possa avaliar sua validade e confiabilidade. A Regra 901(a) exige que a evidência de IA seja autenticada antes de ser considerada pelo júri, o que pode exigir testemunhos especializados que conheçam o funcionamento da IA e sua aplicação no caso em questão.

A complexidade da IA no sistema jurídico

À medida que a IA continua a se integrar em processos judiciais, é essencial que as cortes desenvolvam abordagens para lidar com a admissibilidade de evidências geradas por IA. A transparência, a explicabilidade e a resiliência dos sistemas de IA serão fundamentais para garantir que essas tecnologias possam ser utilizadas de maneira justa e confiável nos tribunais. Como qualquer outra evidência, as provas derivadas de IA devem ser julgadas com base em sua relevância, confiabilidade e conformidade com as normas jurídicas estabelecidas.