SABERES TRANSDISCIPLINARES E ORGÂNICOS.

quarta-feira, 11 de março de 2026

Inteligência Artificial Moral: E Como Chegamos Lá. Por Egidio Guerra.

 


1. Introdução: A Necessidade de uma Abordagem Multidisciplinar 

O livro abre com uma premissa fundamental: a IA é uma tecnologia singular que desafia as definições tradicionais de inteligência e moralidade humanas. Os autores, provenientes de áreas distintas, enfatizam que abordar as questões complexas que a IA suscita exige, necessariamente, um esforço de equipe e uma perspectiva multidisciplinar. O objetivo não é alimentar o sensacionalismo, mas sim "eliminar o exagero e os argumentos enganosos" para examinar com clareza os desafios morais no cerne dos programas de IA. 

2. Capítulo 1: O que é IA? 

Este capítulo introdutório estabelece as bases ao definir o que é IA e, crucialmente, o que ela atualmente não possui: capacidade de raciocínio moral. Os autores fornecem uma visão geral acessível de como os modelos de IA são construídos, traçando uma distinção importante entre os produtos de IA e os modelos subjacentes. Esta distinção é vital para entender onde e como os vieses podem ser introduzidos e onde as intervenções éticas podem ser mais eficazes. 

3. Capítulo 2: A Busca por uma IA Segura (e o Espectro dos Riscos Existenciais) 

Ao abordar a questão "A IA pode ser segura?", Schaich Borg e seus colegas adotam uma postura realista sobre os perigos potenciais. Eles alertam que mesmo as IAs atuais podem representar riscos existenciais em contextos específicos, como a possibilidade de controlarem ogivas nucleares ou fazerem descobertas científicas perigosas das quais não temos conhecimento. 

Os perigos elencados incluem: 

  • Tendenciosidade prejudicial não detectada. 

  • Novos tipos de danos, como os deepfakes. 

  • A desumanização mediada pela IA. 

  • A tendência humana de confiar excessivamente na tecnologia. 

  • A deterioração de habilidades humanas quando substituídas por máquinas. 

Apesar deste cenário de riscos, os autores concluem com uma nota de otimismo cauteloso: se conseguirmos planear as consequências imprevistas, "o sistema resultante pode ser uma melhoria em relação a tudo o que tínhamos antes". 

Atualizando o Debate: A Urgência da Regulação Global 

A preocupação com a segurança e a governança da IA, central em Moral AI, é exatamente o motor de iniciativas globais recentes. O 3º Fórum Global sobre Ética da IAcoorganizado pela UNESCO e realizado em meados de 2025, reforçou que a "ética não é uma barreira para a inovação, mas é fundamental para o seu sucesso". O evento lançou redes globais de autoridades de supervisão de IA e da sociedade civil, demonstrando uma movimentação concreta para transformar princípios éticos em práticas de governança, ecoando a necessidade de ação prática defendida no livro. 

4. Capítulo 3 e 4: Privacidade e Justiça – O Desafio dos Dados e da Definição 

Privacidade 

O capítulo 3 é dedicado a explorar como os sistemas de IA podem ser projetados para respeitar a privacidade, um valor ético e prático fundamental em um mundo de coleta massiva de dados. 

Justiça e o Problema da Definição 

No capítulo 4, a questão da justiça é colocada "em primeiro plano". Uma das revelações mais marcantes do livro é a complexidade técnica do conceito: "existem mais de 20 definições matemáticas possíveis de justiça! Crucialmente, essas definições não podem ser alcançadas simultaneamente enquanto as taxas base de crimes diferirem entre grupos" . 

O livro destaca como o viés pode estar oculto não apenas nos dados, mas em todo o processo de geração desses dados, refletindo estruturas sociais mais amplas . 

Diálogo com a Pesquisa: O Caso da Avaliação de Risco de Violência 

A discussão sobre justiça em Moral AI encontra um paralelo direto e urgente na literatura acadêmica contemporânea. Um estudo de 2025 sobre o uso de IA generativa na avaliação de risco de violência (uma ferramenta usada no sistema de justiça criminal) levanta exatamente as mesmas bandeiras. Os autores alertam que, embora a IA generativa possa produzir conteúdo novo (como relatórios de avaliação), ela é "vulnerável a problemas éticos, inclusive por meio de sua exposição a dados de treinamento tendenciosos". 

Este estudo aprofunda a análise de Moral AI ao aplicar os princípios éticos de autonomia, beneficência, não maleficência e justiça a este domínio específico. Ele argumenta que a mera acurácia preditiva não é suficiente; é crucial garantir que os sistemas não perpetuem ou exacerbem disparidades raciais, um ponto central sobre a dificuldade de se alcançar justiça distributiva e procedimental que o livro levanta. A pesquisa recomenda que os profissionais abordem a IA generativa "com a devida cautela", ecoando o apelo do livro por um planejamento cuidadoso. 

5. Capítulo 5 e 6: Responsabilidade e a Possibilidade de uma IA Moral 

Lacunas de Responsabilidade 

O Capítulo 5 explora a espinhosa questão da responsabilidade legal e moral, usando o exemplo dos carros autônomos para ilustrar as chamadas "lacunas de responsabilidade" – situações em que não está claro se a culpa é do criador, do usuário, ou se a máquina pode ser responsabilizada. 

Incorporando a Moralidade Humana 

No Capítulo 6, os autores enfrentam a questão central: a IA pode ser moral? Uma das abordagens propostas envolve compreender e implementar a moralidade humana nos sistemas, através de pesquisas representativas para identificar características moralmente relevantes e atribuir-lhes pesos. O objetivo é "ajudar as pessoas e os sistemas de IA a fazer melhores julgamentos morais e a comportar-se de formas mais alinhadas com os valores morais humanos". 

Diálogo com a Literatura: Desmontando a "Mágica" da IA 

A visão de Moral AI sobre a necessidade de transparência e alinhamento com valores humanos contrasta fortemente com a narrativa promovida pela indústria de tecnologia, que é duramente criticada em obras contemporâneas. Enquanto Moral AI busca um caminho construtivo, livros como O Engano da IA (The AI Con) , de Emily M. Bender e Alex Hanna (2025), e Império da IA (Empire of AI) , de Karen Hao (2025), argumentam que o hype em torno da IA serve para concentrar poder e esconder os custos humanos e ambientais reais. 

Kate Crawford, em Atlas of AI, já havia estabelecido que a IA é uma "tecnologia de extração", dependente de minerais, energia e trabalho explorado. Já Joy Buolamwini, em Unmasking AI, oferece um relato em primeira mão da luta contra o que ela chama de "olhar codificado" – a evidência de preconceito racial e de gênero na tecnologia, e a subsequente mobilização para criar o movimento por justiça algorítmica. 

Essas obras complementam Moral AI ao oferecer uma visão mais aprofundada das estruturas de poder e das injustiças sistêmicas que a IA pode reforçar, servindo como um alerta poderoso sobre os desafios de, de fato, "chegar lá". 

6. Capítulo 7: O Que Podemos Fazer? Um Apelo à Ação 

O capítulo final é um roteiro prático. Os autores diagnosticam um problema central: os diferentes tipos de contribuidores envolvidos na criação de um produto de IA (cientistas de dados, engenheiros, executivos etc.) "muitas vezes não têm a oportunidade de se comunicar durante a criação". Para superar essa fragmentação, o livro conclui com vários apelos à ação: 

  1. Escalar ferramentas técnicas de IA moral. 

  1. Disseminar práticas que capacitem implementações éticas. 

  1. Proporcionar formação contínua em pensamento sistémico moral. 

  1. Envolver a participação cívica ao longo de todo o ciclo de vida da IA. 

  1. Implementar políticas públicas ágeis que possam acompanhar o ritmo da inovação. 

7. Conclusão: Um Caminho Otimista, mas exigente 

Moral AI: And How We Get There distingue-se pela sua abordagem calma, lúcida e construtiva num campo muitas vezes dominado pelo pânico moral ou pelo tecno-utopismo. Os autores não oferecem respostas fáceis, mas sim um quadro rigoroso para fazer as perguntas certas. 

Ao atualizar a sua leitura com as pesquisas e debates mais recentes, fica claro que os desafios identificados no livro – a dificuldade de definir justiça, as lacunas de responsabilidade, os riscos dos deepfakes e a necessidade de diversidade no desenvolvimento – são exatamente os pontos nevrálgicos do debate global atual. O diálogo com autoras como Buolamwini, Crawford, Bender e Hanna enriquece a análise, lembrando-nos que a jornada para uma IA moral é tanto um esforço técnico quanto uma luta por justiça social, transparência e poder democrático. A obra de Schaich Borg e seus colegas serve, assim, como um guia essencial e um ponto de partida para qualquer pessoa interessada em construir um futuro em que a IA sirva ao bem comum. 





Nenhum comentário:

Postar um comentário