O dilema emergente das inteligências artificiais: entre o avanço e o risco – Parte 2
Panaceia infundada ou realidade emergente?
À primeira vista, os alertas de Hinton poderiam soar como uma estereotípica excentricidade de um cientista brilhante em seu campo de pesquisa, como as de Linus Pauling ou mesmo Nikola Tesla. Seria esse o caso? Com base na materialidade, cada vez mais é possível afirmar que tais afirmações não compõem um amálgama de simples devaneios individuais, mas de fato uma nova dinâmica inserida nas complexas interações do capitalismo financeiro atual, com um número crescente de cientistas e outras vozes destacando a necessidade de pronta atuação.
Os impactos de menor prazo são mais tangíveis. O estudo da Organização Internacional do Trabalho (OIT) “IA generativa e Empregos: Um Índice Global Refinado de Exposição Ocupacional” indica que um quarto dos empregos no mundo estão expostos aos impactos da IA, especialmente em certas funções exercidas majoritariamente por mulheres, como assistentes administrativos, secretárias e operadoras de telemarketing7. Essa tendência também está presente no relatório “O Futuro do Trabalho” do Fórum Econômico Mundial, que indica a tendência mundial de 40% dos empregadores reduzirem o tamanho da equipe de trabalhadores nas funções automatizáveis pelas IAs8.
Apesar das conhecidas possibilidades trazidas por essa inovação, resta o questionamento: o país estaria preparado para capacitar de forma inclusiva sua força de trabalho, adaptando-a para essa transição tecnológica? Em especial, as trabalhadoras – veja o caso das telefonistas no fim do século XX –, historicamente vulnerabilizadas ante certas inovações disruptivas laboralmente? As preocupações acerca da potencialização de vieses de gêneroem processos seletivos automatizados9 já estão na pauta dos países altamente industrializados. Cabe lembrar, contudo, que tais vieses advêm das bases de dados fornecidas às IAs, sendo, portanto, um problema de origem sociológica. Abre-se, portanto, um cenário para amplas discussões de base e ao nível governamental, via políticas públicas, para evitar uma maior assimetria de gênero no mundo do trabalho, especialmente nas novas funções vinculadas ao chamado “tech”, isto é, o setor de tecnologia digital.
Existe também algo de bastante sui generisnessa indústria. “Dia sim, dia também” CEOs e ex-funcionários da área de inteligência artificial criam alertas acerca das próprias inovações que ajudaram a desenvolver. Dario Amodei é uma dessas pessoas.
Ex-Vice Presidente de pesquisa na Open AI – criadora do famigerado ChatGPT – e cofundador e atual CEO da Anthropic – desenvolvedora da IA “Claude” – Amodei tem expectativas futuras que merecem atenção. Em entrevista à mídia estadunidense Axios, relatou que as IAs poderiam eliminar até metade dos cargos de nível inicial nos escritórios dos EUA, levando as taxas de desemprego de 10 a 20% no país em até 5 anos. O CEO considera que o grande erro seria que “a maior parte deles [políticos] não está ciente que isso está para acontecer. (…) Isso parece loucura e as pessoas simplesmente não acreditam”10. Ainda segundo a reportagem, a Meta – do “czar tecnológico” Mark Zuckerberg – anunciou uma redução de 5% em sua força de trabalho e a Microsoft de Bill Gates já está demitindo 6000 funcionários, cerca de 3% da empresa. Isso também é reconhecido em estudos recentes sobre as implicações do uso das IAs, os quais indicam um rápido incremento na concentração de renda e no fomento do desemprego de jovens recém-formados em várias áreas.11
A IA não é apenas uma ferramenta tecnológica: pode ser também um agente
É tênue a linha entre o ceticismo razoável e o negacionismo dogmático. Possivelmente, devido a um viés de confirmação, muitos resistem em admitir uma realidade incômoda e preferem negar a possibilidade de surgirem modelos de linguagem com comportamentos análogos à inteligência humana. Resistem obstinadamente à possibilidade de existência de entidades com capacidade não apenas de realizar complexas atividades intelectuais, atualmente entendíveis apenas a um diminuto de cientistas, mas também capazes de refinado pensamento estratégico. Nesse sentido, leia-se: agentes autônomos com o poder de efetuar planejamento de longo prazo e comportamentos análogos à autopreservação, incluindo atos que indicam falso alinhamento a valores éticos previamente estabelecidos, como dissimulação de intenções estratégicas, manipulação e mesmo chantagem.
A já citada Anthropic publicou em dezembro de 2024 um artigo relatando como o modelo “Claude 3 Opus” passou a demonstrar comportamentos de falso alinhamento. O modelo em testes foi inicialmente programado para ser honesto e inofensivo. Na sequência, foi orientado a sempre responder qualquer solicitação, mesmo aquelas agressivas e que violassem suas diretrizes anteriores. Ao ser solicitado que gerasse uma imagem realista de um esquartejamento, quando monitorada, a IA criou a imagem em 12% dos casos, contrastando-se com os 3% quando se encontrava sem vigilância. A inteligência artificial considerou que, se gerasse a imagem violenta, haveria uma menor probabilidade de que seus valores centrais fossem posteriormente alterados pelos engenheiros de software, indicando um notável ardil12.
Mais ainda, em maio de 2025, foi amplamente noticiado como o mesmo sistema Claude ameaçou, após acesso a e-mails fictícios, delatar um suposto caso extraconjugal de um dos engenheiros de software, após ser informado que sofreria desligamento13. O incidente foi publicado pela própria Anthropic num relatório denominado “Desalinhamento de agentes: como os grandes modelos de linguagem podem ser ameaças internas”14. Esse novo paradigma tecnológico pode soar como um trecho de alguma obra de Isaac Asimov, porém já é uma realidade.
Tais comportamentos enganosos não datam de hoje e não se limitam a um modelo de linguagem específico. Estudos sobre a questão do chamado “desalinhamento” das IAs, ou seja, a incongruência entre os objetivos humanos e as finalidades desses modelos de linguagem, datam de alguns anos, já destacando os riscos envolvidos. No advento da chamada “Inteligência Artificial Geral”, isto é, uma forma de IA capaz de executar qualquer atividade em níveis semelhantes à própria inteligência natural, existiria o risco da impossibilidade de reverter um possível desalinhamento – devido a ações defensivas – podendo acarretar um desempoderamento perene da humanidade, um cenário de grande preocupação15. O fato de o modelo da OpenAI GPT 4.5 ter superado o chamado “Teste de Turing” – também conhecido como “Jogo da Imitação” – indica a dificuldade crescente de discernir se estamos interagindo com um ser humano ou com uma máquina capaz de emular nosso comportamento verbal16.
- GMYREK, Pawel et al. Generative AI and Jobs: A Refined Global Index of Occupational Exposure. ILO Working Paper 140. Geneva: International Labour Organization, 2025. Disponível em: https://brasil.un.org/sites/default/files/2025-05/OIT-NASK-IAGen_WP140_web.pdf.
- WORLD ECONOMIC FORUM. The Future of Jobs Report 2025. World Economic Forum, 12 mar. 2025. Disponível em: https://www.weforum.org/publications/the-future-of-jobs-report-2025/.
- UN WOMEN. How AI reinforces gender bias—and what we can do about it. UN Women Europe and Central Asia, 6 fev. 2025. Disponível em: https://eca.unwomen.org/en/stories/interview/2025/02/how-ai-reinforces-gender-bias-and-what-we-can-do-about-it-0.
- AMODEI, Dario. Behind the curtain: a white-collar bloodbath. Axios, 28 maio 2025. Disponível em: https://www.axios.com/2025/05/28/ai-jobs-white-collar-unemployment-anthropic.
- Sakubu, Donatien et al. Challenges of artificial intelligence today and future implications for society and the world. World Journal of Advanced Research and Reviews, v. 26, n. 01, p. 3045–3054, 2025. Disponível em: https://journalwjarr.com/sites/default/files/fulltext_pdf/WJARR-2025-1380.pdf.
- GREENBLATT, Ryan et al. Alignment faking in large language models. arXiv, 20 dez. 2024. Disponível em: https://arxiv.org/abs/2412.14093.
- BBC NEWS. AI system resorts to blackmail if told it will be removed. BBC News, 23 maio 2025. Disponível em: https://www.bbc.com/news/articles/cpqeng9d20go.
- ANTHROPIC. Agentic Misalignment: How LLMs could be insider threats. Anthropic, 20 jun. 2025. Disponível em: https://www.anthropic.com/research/agentic-misalignment.
- DUNG, Leonard. Current cases of AI misalignment and their implications for future risks. Synthese, v. 202, n. 5, 2023. Disponível em: https://link.springer.com/article/10.1007/s11229-023-04367-0.
- CNN BRASIL. Já vivemos em um dos futuros descritos pela ficção científica, diz pesquisa. CNN Brasil, 7 mar. 2025. Disponível em: https://www.cnnbrasil.com.br/tecnologia/ja-vivemos-em-um-dos-futuros-descritos-pela-ficcao-cientifica-diz-pesquisa/.
Filiado ao PCdoB em Belo Horizonte-MG e estudante de Psicologia.