Tudo sobre Inteligência Artificial
Pesquisadores do Instituto Avançado de Ciência e Tecnologia da Coreia (KAIST) desenvolveram um método de treinamento que reduz a superconfiança da inteligência artificial (IA).Continua após a publicidadeO estudo, publicado na revista Nature Machine Intelligence, identifica que a inicialização aleatória padrão das redes neurais é a causa primária de respostas imprecisas ou fabricadas.A equipe liderada pelo professor Se-Bum Paik introduziu uma estratégia de “aquecimento” inspirada no desenvolvimento neurobiológico. O processo ajusta a incerteza do modelo antes do aprendizado com dados reais. Isso garante que a confiança do sistema esteja alinhada com a sua precisão.No novo método, as redes neurais são treinadas brevemente com ruído e rótulos aleatórios antes da exposição a dados reais. Essa etapa mimetiza a atividade neural espontânea que ocorre no cérebro humano. Ela gera sinais sem entrada externa para formar circuitos antes do nascimento. O objetivo é fazer com que a IA aprenda o estado de “não saber nada” para calibrar suas previsões futuras.
Redes neurais são treinadas brevemente com ruído e rótulos aleatórios antes da exposição a dados reais no método criado pelos pesquisadores – Imagem: Faizal Ramli/ShutterstockModelos convencionais exibem alta confiança em previsões incorretas já na fase de inicialização, o que propaga erros durante o treinamento. Segundo a pesquisa, essa característica é um fator para a ocorrência de alucinações em IAs generativas, nas quais informações falsas são produzidas de forma plausível. Com o “aquecimento”, a confiança inicial é mantida em níveis baixos, próximos ao acaso, para conteúdos desconhecidos.“Este estudo demonstra que, ao incorporar princípios fundamentais do desenvolvimento cerebral, a IA pode reconhecer seu próprio estado de conhecimento de uma forma mais semelhante à dos humanos”, disse o professor Se-Bum Paik, em comunicado.
Isso é importante porque ajuda a IA a entender quando está incerta ou pode estar enganada, e não apenas a melhorar a frequência com que fornece a resposta correta.
professor Se-Bum Paik, líder da equipe que fez a pesquisaEssa técnica se mostrou eficaz na hora de detectar informações estranhas (ou seja, dados que não se encaixam no que o sistema tinha aprendido).Em outras palavras, as redes neurais treinadas com essa abordagem ficaram habilidosas em identificar o que nunca viram antes. Isso garante uma solução confiável para aplicações no mundo real.Onde podemos ver isso em ação? Em carros que dirigem sozinhos, no suporte a diagnósticos médicos e na IA generativa (aquela capaz de gerar conteúdo).O trabalho foi conduzido por Jeonghwan Cheon, estudante de mestrado no Departamento de Ciências Cognitivas e do Cérebro do KAIST. A pesquisa contou com suporte da Fundação Nacional de Pesquisa da Coreia e do Programa de Pesquisa de Professores Singulares do KAIST.
Pedro Spadoni
Pedro Spadoni é jornalista formado pela Universidade Metodista de Piracicaba. Já escreveu para sites, revistas e jornal.
Ver todos os artigos →


