As alucinações da Inteligência Artificial (IA) são inevitáveis, mas como podemos verificar a informação que a IA nos fornece? Sejam chamadas de mentiras patológicas, alucinações ou desinformação, há uma falha nos poderosos ChatGPTs e em outras IA geradoras (gen AI). Essas ferramentas alimentadas por IA, com sua capacidade de produzir respostas humanas, conquistaram nossa confiança e atenção, levando-nos a usá-las em pesquisas, consultas de saúde e investigações no ambiente de trabalho. No entanto, a maior armadilha está no fato de que, às vezes, esses modelos inventam informações.
Por exemplo, no início deste ano, um modelo ChatGPT foi questionado sobre como uma figura histórica utilizou o G Suite da Google LLC para organizar a resistência contra a violência britânica. O modelo prontamente respondeu que uma conta do Gmail foi criada e usada para enviar e-mails e agendar reuniões, afirmando ainda que o Google Docs foi utilizado para compartilhar documentos e colaborar em projetos. Isso é um tanto difícil de acreditar, considerando que a resistência ocorreu na década de 1940 e o Google em si não foi fundado até 1998. O modelo GPT havia, portanto, produzido uma alucinação.
As alucinações de IA são um estranho subproduto dos grandes modelos de linguagem (LLMs) e de outras formas de IA. Atualmente, é impossível prevenir totalmente essas alucinações. “Chamar esses incidentes de alucinações é um pouco exagerado, já que essas máquinas não são humanas e não possuem a capacidade de alucinar. Prefiro chamá-las de desinformação”, explicou Triveni Gandhi, Líder de IA Responsável da Dataiku.
O risco inerente está na qualidade e autenticidade das informações disponíveis online. A internet está repleta de desinformação, fontes tendenciosas e imprecisões. Durante eventos críticos, como a pandemia de COVID-19, a rápida disseminação de informações online levou muitas pessoas a confiarem em dados sem verificar sua credibilidade. Como resultado, enfrentamos um desafio significativo em distinguir informações precisas de falsas, alimentado pela confiança generalizada na tecnologia.
Embora a IA, especialmente modelos como a Gen AI, demonstre capacidades notáveis na geração e transformação de conteúdo, é essencial reconhecer suas limitações. A Gen AI opera com base em padrões e dados históricos, sem verdadeiro entendimento, sentimento ou percepção. Essas limitações podem levar a inconsistências ou “alucinações” em suas saídas. Além disso, a repetibilidade, um aspecto crítico de confiabilidade em programas de computador, muitas vezes está ausente na Gen AI. Tais limitações representam desafios, especialmente em aplicações críticas onde a confiabilidade é primordial.
O problema surge quando há uma crença cega e aceitação de tudo o que uma máquina diz. Como Gandhi explica, muitos assumem que a matemática e a IA por trás das respostas e dados são objetivamente verdadeiras. “Nós, como sociedade, temos uma reverência significativa pela tecnologia e observamos como os mercados e o mundo ao nosso redor se movem em direção a decisões e insights baseados em dados”, acrescentou Gandhi.
Há também a necessidade de avançar para modos de trabalho mais rápidos e eficientes, e, como Gandhi colocou, há a crença de que máquinas e computadores não estão errados.
“A percepção de que a informação obtida de um computador é inerentemente factual decorre da confiança generalizada na tecnologia para acessar e processar dados na sociedade moderna. Desde cedo, as crianças são expostas a dispositivos digitais como laptops e tablets, onde as informações estão prontamente disponíveis ao alcance de suas mãos. Essa facilidade de acesso pode criar um sentimento de confiança na precisão das informações fornecidas pela tecnologia”, explica Gayathri Murukan, engenheira convertida em especialista em saúde mental e bem-estar.
Carolyn Yaffe, psicoterapeuta da Medcare-Camali Jumeriah, em Dubai, acrescenta que as pessoas hoje estão se tornando dependentes de ferramentas de IA para tudo. “Qualquer forma de tecnologia moderna tem um impacto na saúde mental. Pode causar sentimentos de isolamento, depressão, ansiedade, além de sobrecarga de informações, que reduz nossa capacidade de atenção, aumentando o fator de ansiedade”, explica Yaffe.
Como Podemos Resolver Isso?
O maior fator para garantir que essas alucinações não influenciem em nossas decisões é verificar e cruzar as respostas que um sistema produz. “Controles e equilíbrios sempre ajudam”, acrescentou Gandhi.
Organizações cada vez mais aproveitam tecnologias avançadas como grandes modelos de linguagem, como o GPT-3, para otimizar operações e aumentar a produtividade. No entanto, a dependência de sistemas de IA introduz o risco de desinformação, especialmente se os dados subjacentes alimentando esses sistemas estiverem incorretos.
“As alucinações de IA, onde o sistema gera saídas falsas com base em dados errôneos, apresentam desafios significativos dentro das organizações. Essas imprecisões podem se propagar pelos processos de tomada de decisão, levando a consequências não intencionais e estratégias equivocadas. Para lidar com isso, as organizações devem implementar mecanismos robustos de validação e incentivar o pensamento crítico entre os usuários”, acrescentou Murukan.
Uma abordagem é advogar por uma cultura de ceticismo, onde os usuários são encorajados a questionar as informações fornecidas por sistemas de IA e a cruzá-las com fontes confiáveis. Além disso, investir em processos de garantia de qualidade de dados e programas de treinamento contínuos pode capacitar os funcionários com habilidades para identificar e mitigar efetivamente instâncias de informações falsas.
Gandhi explicou que a construção de modelos de IA imparciais e equitativos requer um esforço concentrado de organizações em diferentes frentes. Em primeiro lugar, equipes diversas e inclusivas devem estar envolvidas no desenvolvimento e teste de algoritmos de IA para mitigar o risco de viés e garantir que diferentes perspectivas sejam consideradas.
Sambandam explicou que o foco precisa estar no controle de alucinações, estabelecendo restrições no conteúdo gerado pela IA.
“Ao restringir a saída da IA a diretrizes específicas ou conjuntos de dados, mitigamos o risco de gerar conteúdo não confiável ou inconsistente. Essas restrições garantem a confiabilidade e precisão das saídas geradas pela IA, especialmente em aplicações onde a consistência é crucial”, acrescentou Sambandam.
Yaffe acrescentou que é importante usar a IA como uma ferramenta e não como uma substituição. “É assim que o mundo está indo, são as tecnologias do mundo, então é importante adotá-las com discernimento e eficiência.”
Além disso, as organizações precisam priorizar a qualidade e a integridade dos dados, pois dados tendenciosos ou incompletos podem levar a resultados distorcidos. Auditorias regulares e avaliações de sistemas de IA devem ser realizadas para identificar e corrigir quaisquer viéses ou disparidades. Além disso, os stakeholders devem ser transparentes sobre as limitações das tecnologias de IA e os riscos potenciais envolvidos, promovendo uma cultura de responsabilidade e melhoria contínua.
FONTE: https://www.edgemiddleeast.com/emergent-tech/fact-or-fiction-the-imperative-of-validating-ai-generated-information