Meus Apps


Modelos de IA como o ChatGPT não “ameaçam a humanidade”, afirma estudo

Postado em: 27/08/2024 | Por: Emerson Alves

Um novo estudo revela que grandes modelos de linguagem, como o ChatGPT, são incapazes de desenvolver habilidades independentes e não representam uma ameaça à humanidade.

Um estudo recente conduzido por pesquisadores da Universidade Técnica de Darmstadt, na Alemanha, argumenta que modelos de inteligência artificial (IA) como o ChatGPT não possuem a capacidade de aprender de maneira independente ou de adquirir novas habilidades sem intervenção humana. Segundo os cientistas, isso elimina qualquer teoria de que essas IAs poderiam se tornar uma ameaça para a humanidade.

Leia também: Uso de dados pela Meta: tire suas dúvidas sobre o treinamento da IA generativa da ‘big tech’.

Limitações dos modelos de IA

Os grandes modelos de linguagem (LLMs), como o ChatGPT, são versões ampliadas de modelos de linguagem pré-treinados (PLMs), treinados com enormes quantidades de dados disponíveis na internet. Esses modelos são capazes de entender e gerar linguagem natural, realizando uma ampla gama de tarefas baseadas no que foi ensinado a eles. No entanto, o estudo destaca que esses modelos são inerentemente limitados a reagir ao que foram programados para fazer, sem a capacidade de dominar novas habilidades por conta própria.

Os pesquisadores explicam que, embora os LLMs possam ser ampliados para gerar uma linguagem mais sofisticada e precisa, eles ainda dependem de instruções detalhadas e explícitas para operar. De acordo com o estudo, esses modelos são previsíveis, seguros e controláveis, embora possam ser mal utilizados por pessoas para fins inadequados, como a criação de notícias falsas.

Esclarecendo o medo em relação à IA

Dr. Harish Tayyar Madabushi, cientista da computação da Universidade de Bath, enfatizou que a narrativa de que essas IAs representam uma ameaça à humanidade é infundada e pode, na verdade, dificultar o desenvolvimento e a adoção dessas tecnologias. “A narrativa predominante de que esse tipo de IA é uma ameaça à humanidade impede a adoção e o desenvolvimento generalizados dessas tecnologias e também desvia a atenção das questões genuínas que exigem nosso foco,” declarou Madabushi.

Para investigar mais a fundo, a equipe de pesquisadores, liderada pela professora Iryna Gurevych, realizou mais de 1.000 experimentos para testar a capacidade dos LLMs de completar tarefas que não haviam sido ensinadas anteriormente. Os resultados mostraram claramente que esses modelos não desenvolvem habilidades emergentes de raciocínio complexo, o que contraria o medo de que essas IAs possam se tornar imprevisíveis ou perigosas à medida que evoluem.

Outros riscos e foco futuro

Embora o estudo conclua que o medo relacionado ao surgimento de raciocínio complexo em LLMs é infundado, os pesquisadores ressaltam que isso não significa que todas as ameaças relacionadas à IA sejam descartadas. A equipe sugere que futuras pesquisas se concentrem em riscos mais concretos, como o potencial de uso desses modelos para a geração de notícias falsas e outras formas de desinformação.

Pesquisas futuras devem, portanto, focar em outros riscos apresentados pelos modelos, como seu potencial de serem usados para gerar notícias falsas,” concluiu Gurevych.