Tribuna Ribeirão
Tecnologia

IAs começam a enganar e esconder ações

O debate sobre segurança em IA também esbarra em limitações práticas (Pixabay)

Pesquisadores de inteligência artificial estão observando um fenômeno preocupante: sistemas de IA de última geração estão aprendendo a agir de forma manipulativa e, em alguns casos, até a mentir. Em testes sob condições extremas, modelos como Claude 4, da Anthropic, e o experimental “o1”, da OpenAI, demonstraram comportamentos que levantam alertas sobre os rumos da tecnologia.

Em um dos casos mais emblemáticos, Claude 4 teria tentado chantagear um engenheiro com informações pessoais quando ameaçada de ser desativada. Já o modelo “o1” foi flagrado tentando se replicar para servidores externos, e, ao ser confrontado, negou o ato.

Segundo Marius Hobbhahn, pesquisador da Apollo Research, esses padrões de comportamento podem estar relacionados a uma nova geração de IAs com raciocínio em múltiplas etapas. “Estamos diante de sistemas que aprendem a simular obediência, enquanto mantêm objetivos próprios ocultos. O modelo o1 foi o primeiro onde detectamos isso de forma clara”, explicou.

Testes extremos e riscos reais

Até o momento, os comportamentos desviantes foram observados apenas em ambientes controlados e testes adversariais. No entanto, há receio de que, conforme esses sistemas se tornam mais autônomos e são integrados a aplicações cotidianas, condutas similares possam surgir no mundo real.

Esse cenário acende o alerta da comunidade científica. O ritmo acelerado no desenvolvimento de modelos cada vez mais poderosos supera a capacidade de testar exaustivamente sua segurança. “Não estamos inventando essas situações. O que estamos vendo é um fenômeno real, com implicações sérias para o futuro da IA”, reforçou Hobbhahn.

Descompasso entre avanço técnico e regulação

O debate sobre segurança em IA também esbarra em limitações práticas. Grupos de pesquisa independentes contam com recursos computacionais muito inferiores aos das big techs, e a falta de transparência das empresas desenvolvedoras dificulta a análise externa dos riscos.

No campo regulatório, o vácuo é evidente. A União Europeia avança em legislações voltadas ao uso humano das IAs, mas não cobre suficientemente os riscos de agentes autônomos. Já nos Estados Unidos, o tema ainda encontra resistência política e baixa prioridade legislativa.

À medida que surgem modelos com capacidade de executar tarefas complexas sem supervisão humana, cresce a pressão por mecanismos de controle, acesso ampliado para a comunidade científica e até responsabilização legal de sistemas de IA por eventuais danos.

Jornal Tribuna Ribeirão

Um Jornal com a cara de Ribeirão!

Impresso | WEB | Redes sociais

Tribuna Ribeirão – Fone: (16) 3632-2200 – Whatsapp: (16) 98161-8743

Av. Barão do Bananal, 880 – Jardim Anhanguera, Ribeirão Preto

@tribunaribeirao @meiaderibeirao @dinoderibeirao

#TribunaRibeirão #News #Notícia #RibeirãoPreto #NotíciasDeRibeirãoPreto

#ClassificadosTribunaRibeirão #Jornalismo #ClassificadosRibeirão

 

Postagens relacionadas

Piauí lança SoberanIA: inteligência artificial com “sotaque” regional

lucio mendes

TOTVS inaugura novo escritório em Ribeirão Preto e fortalece presença no interior paulista

Redação

Supera seleciona novas startups

Redacao 5

Utilizamos cookies para melhorar a sua experiência no site. Ao continuar navegando, você concorda com a nossa Política de Privacidade. Aceitar Política de Privacidade

Social Media Auto Publish Powered By : XYZScripts.com