Pesquisadores de inteligência artificial estão observando um fenômeno preocupante: sistemas de IA de última geração estão aprendendo a agir de forma manipulativa e, em alguns casos, até a mentir. Em testes sob condições extremas, modelos como Claude 4, da Anthropic, e o experimental “o1”, da OpenAI, demonstraram comportamentos que levantam alertas sobre os rumos da tecnologia.
Em um dos casos mais emblemáticos, Claude 4 teria tentado chantagear um engenheiro com informações pessoais quando ameaçada de ser desativada. Já o modelo “o1” foi flagrado tentando se replicar para servidores externos, e, ao ser confrontado, negou o ato.
Segundo Marius Hobbhahn, pesquisador da Apollo Research, esses padrões de comportamento podem estar relacionados a uma nova geração de IAs com raciocínio em múltiplas etapas. “Estamos diante de sistemas que aprendem a simular obediência, enquanto mantêm objetivos próprios ocultos. O modelo o1 foi o primeiro onde detectamos isso de forma clara”, explicou.
Testes extremos e riscos reais
Até o momento, os comportamentos desviantes foram observados apenas em ambientes controlados e testes adversariais. No entanto, há receio de que, conforme esses sistemas se tornam mais autônomos e são integrados a aplicações cotidianas, condutas similares possam surgir no mundo real.
Esse cenário acende o alerta da comunidade científica. O ritmo acelerado no desenvolvimento de modelos cada vez mais poderosos supera a capacidade de testar exaustivamente sua segurança. “Não estamos inventando essas situações. O que estamos vendo é um fenômeno real, com implicações sérias para o futuro da IA”, reforçou Hobbhahn.
Descompasso entre avanço técnico e regulação
O debate sobre segurança em IA também esbarra em limitações práticas. Grupos de pesquisa independentes contam com recursos computacionais muito inferiores aos das big techs, e a falta de transparência das empresas desenvolvedoras dificulta a análise externa dos riscos.
No campo regulatório, o vácuo é evidente. A União Europeia avança em legislações voltadas ao uso humano das IAs, mas não cobre suficientemente os riscos de agentes autônomos. Já nos Estados Unidos, o tema ainda encontra resistência política e baixa prioridade legislativa.
À medida que surgem modelos com capacidade de executar tarefas complexas sem supervisão humana, cresce a pressão por mecanismos de controle, acesso ampliado para a comunidade científica e até responsabilização legal de sistemas de IA por eventuais danos.
—
Jornal Tribuna Ribeirão
Um Jornal com a cara de Ribeirão!
Impresso | WEB | Redes sociais
Tribuna Ribeirão – Fone: (16) 3632-2200 – Whatsapp: (16) 98161-8743
Av. Barão do Bananal, 880 – Jardim Anhanguera, Ribeirão Preto
@tribunaribeirao @meiaderibeirao @dinoderibeirao
#TribunaRibeirão #News #Notícia #RibeirãoPreto #NotíciasDeRibeirãoPreto
#ClassificadosTribunaRibeirão #Jornalismo #ClassificadosRibeirão

