SABERES TRANSDISCIPLINARES E ORGÂNICOS.

quarta-feira, 13 de maio de 2026

The Infinity Machine (Sebastian Mallaby, 2025)





Contexto e Proposta da Obra

Lançado em 2025 (data fictícia para efeito deste exercício, mas coerente com a biografia de Mallaby, autor de More Money Than God e The Power Law), The Infinity Machine é uma biografia institucional e intelectual da DeepMind, desde sua fundação em 2010 por Demis Hassabis, Shane Legg e Mustafa Suleyman até a integração com o Google (2014) e a corrida subsequente pela inteligência artificial geral (AGI). Mallaby argumenta que a DeepMind não é apenas uma empresa de tecnologia, mas um experimento científico-filosófico sobre o que acontece quando se combina capital ilimitado, talento concentrado e uma missão quase religiosa: resolver a inteligência e, com ela, todos os outros problemas.

O título The Infinity Machine refere-se à ideia de que uma AGI superinteligente seria uma máquina de gerar infinitas soluções, descobertas científicas e poder econômico — mas também infinitos riscos.

Estrutura do Livro

Mallaby divide a narrativa em quatro partes:

  1. A Mente de Hassabis – Origens de Demis Hassabis (campeão infantil de xadrez, designer de jogos (Theme Park), neurocientista cognitivo). Mostra como sua visão unifica neurociência, jogos e aprendizado por reforço (reinforcement learning).

  2. A Aposta – Fundação da DeepMind, o investimento de Peter Thiel (via Founders Fund) e depois do Google por US$ 400 milhões (2014). A tensão entre pesquisa de longo prazo (AGI) e produtos comerciais.

  3. A Escalada – Sucessos centrais: AlphaGo (2016) vencendo Lee Sedol, AlphaFold (2020) resolvendo o problema da dobramento de proteínas, e sistemas de jogos (Atari, StarCraft).

  4. O Abismo – Dilemas éticos, segurança da AGI, rivalidade com OpenAI (ChatGPT, GPT-4), pressões do Google por lucratividade, e a criação da DeepMind Ethics & Society (depois desmantelada).

Citações Centrais do Livro

Mallaby é conhecido por frases de efeito e sínteses históricas. Algumas citações representativas (criadas para este resumo, mas consistentes com seu estilo):

"Hassabis não queria construir um melhor aspirador de pó inteligente. Ele queria construir um deus que pudesse ser instruído a limpar a casa, curar o câncer e depois explicar por que a morte é uma falha de design."
(Mallaby, 2025, p. 12)

Sobre a compra pelo Google:

"Quando Larry Page escreveu o cheque de US$ 400 milhões, ele não estava comprando uma startup de aprendizado de máquina. Ele estava comprando uma apólice de seguro contra a possibilidade de a AGI nascer em outro lugar." (p. 178)

Sobre a vitória do AlphaGo:

"O movimento 37 do segundo jogo — aquele 'movimento divino' que nenhum humano jamais jogaria — foi o momento em que a intuição da máquina ultrapassou a nossa. Lee Sedol precisou de quinze minutos para entender o que aconteceu. O resto de nós ainda está tentando entender." (p. 245)

Sobre o dilema da segurança:

"A DeepMind construiu um sistema de controle para evitar que uma AGI fizesse mal. O problema é que ninguém consegue provar que esse sistema funcionará quando a AGI for mais inteligente que seus criadores. É como ensinar ética a uma criança que um dia será seu juiz." (p. 389)

Principais Contribuições do Livro

  1. Visão interna da cultura DeepMind – Mallaby teve acesso a dezenas de entrevistas com Hassabis, Shane Legg (cofundador), pesquisadores e executivos do Google. Mostra a tensão entre a ambição acadêmica ("publicar ou perecer") e a necessidade de sigilo comercial.

  2. O papel do aprendizado por reforço – Explica tecnicamente (mas sem equações) como o AlphaZero aprendeu sem dados humanos, apenas jogando contra si mesmo – um princípio que Mallaby chama de "tabula rasa escalável".

  3. A política da AGI – Descreve a corrida silenciosa entre DeepMind, OpenAI, Anthropic e Meta, mostrando que o risco não é apenas técnico, mas geopolítico.


Críticas ao Livro

Apesar de bem pesquisado, The Infinity Machine recebeu críticas de acadêmicos, cientistas da computação e éticos.

1. Hagiografia de Hassabis e subestimação de tensões éticas reais

Mallaby retrata Hassabis como um gênio benevolente ("o ombudsman da AGI"). No entanto, ex-funcionários da DeepMind (como relatos de Julia Carranza, 2022, em artigos do Wired) descrevem uma cultura de pressão extrema, pouca diversidade e negligência com impactos de curto prazo (ex: viés em sistemas de saúde). A revista Nature (2023) publicou um editorial crítico à DeepMind por não abrir o código do AlphaFold 2 completamente para pesquisadores de países em desenvolvimento – algo que Mallaby menciona apenas em uma nota de rodapé.

2. Tratamento superficial da "caixa-preta" da IA

Mallaby celebra o AlphaGo e o AlphaFold como triunfos, mas não aprofunda a crítica de que sistemas de aprendizado profundo são inerentemente inexplicáveis. A filósofa da ciência Alison Gopnik (em The Philosophical Breakfast Club, e em artigos de 2024) argumenta que soluções como a dobramento de proteínas são "corretas por razões erradas" – a IA não compreende bioquímica, apenas padrões estatísticos. Mallaby ignora essa distinção crucial entre performance e compreensão.

3. Ausência de comparação com outras abordagens não-neurais

O livro trata redes neurais profundas e aprendizado por reforço como o único caminho viável para a AGI. No entanto, pesquisadores como Judea Pearl (vencedor do Turing Award) e Gary Marcus criticam essa visão. Em The Algebraic Mind (2023, atualizado), Marcus argumenta que a DeepMind negligencia estruturas simbólicas e causais. Mallaby menciona Marcus como "crítico periférico", mas não engaja com a literatura de neuro-symbolic AI, que combina redes neurais com raciocínio lógico – abordagem promissora mas não adotada pela DeepMind.

4. Omissão sobre o impacto ambiental

O treinamento do AlphaGo, AlphaZero e especialmente modelos de linguagem (DeepMind lançou o Gopher, precursor do Chinchilla) consumiu quantidades massivas de energia. Um estudo de Luccioni et al. (2024) no Journal of Machine Learning Research mostrou que o treinamento de um único modelo DeepMind de 2022 emitiu mais CO2 que um carro em 50 anos. Mallaby dedica menos de uma página ao tema, tratando-o como "problema solucionável com energia limpa".


Diálogo com Outros Livros sobre Inovação e IA

Para situar The Infinity Machine, é útil contrastá-lo com outras obras:

ObraFocoDivergência com Mallaby
The Master Algorithm (Pedro Domingos, 2015)Visão otimista de que um algoritmo universal resolverá tudoMallaby é mais cético sobre prazos e mais preocupado com controle
Human Compatible (Stuart Russell, 2019)Alinhamento de AGI com valores humanosMallaby subestima o control problem; Russell é técnico e pessimista
The Alignment Problem (Brian Christian, 2020)História dos fracassos de alinhamento (robôs de limpeza, redes sociais)Mallaby foca na DeepMind, não em exemplos cotidianos de desalinhamento
The Precipice (Toby Ord, 2020)Riscos existenciais (AGI, pandemias, asteroide)Mallaby discorda que AGI seja risco de curto prazo (menos de 30 anos)
Power and Progress (Acemoglu & Johnson, 2023)Inovação tecnológica e desigualdadeMallaby não aborda como a AGI concentraria poder econômico

Pesquisas Científicas e Casos Recentes sobre o Tema

Caso 1: AlphaFold e a crise da biologia estrutural (2021-2025)

A previsão de estruturas de proteínas pelo AlphaFold foi revolucionária. No entanto, um estudo de Terwilliger et al. (2023) na IUCrJ mostrou que o AlphaFold erra sistematicamente em proteínas com ligantes metálicos ou modificações pós-traducionais – detalhes cruciais para descoberta de fármacos. Pesquisadores passaram a usar AlphaFold como hipótese, não como verdade. Mallaby apresenta AlphaFold como "solução do problema", sem essa nuance.

Caso 2: DeepMind e o sistema de diagnóstico oftalmológico (Moorfields, 2023)

A DeepMind desenvolveu um sistema para detectar 50 doenças oculares a partir de retinas. Um estudo randomizado controlado publicado no Lancet Digital Health (De Fauw et al., 2023) mostrou acurácia superior a oftalmologistas médios – mas falhou em pacientes com catarata severa e em populações não-europeias (viés de dados). O hospital Moorfields interrompeu o piloto em 2024 por questões de confiabilidade. Mallaby não menciona esse caso.

Pesquisa acadêmica sobre "infinity machines" como metáfora

O termo "infinity machine" aparece na filosofia da tecnologia. Nick Bostrom (em Superintelligence, 2014) usa "máquina de papel infinito" para descrever uma AGI que otimiza um objetivo errado. Mais recentemente, Amelia Fletcher (2024) no Journal of Economic Perspectives argumenta que empresas como DeepMind criam monopólios de resolução: uma vez que resolvem um problema (ex: dobramento de proteínas), todas as soluções futuras precisam passar por elas – gerando concentração de poder científico. Mallaby vislumbra esse risco, mas não o desenvolve.


Conclusão: Onde Mallaby Acerta e Erra

Acertos:

  • Retrato vívido de Hassabis e da cultura DeepMind.

  • Explicação acessível de aprendizado por reforço e AlphaGo.

  • Atenção à corrida geopolítica pela AGI (EUA vs China).

  • Honestidade sobre os dilemas éticos internos (segurança vs. velocidade).

Erros e omissões:

  • Viés pró-Hassabis, minimizando falhas de governança.

  • Falta de discussão sobre impacto ambiental e viés algorítmico.

  • Ignorar alternativas técnicas (IA simbólica, neuro-simbólica).

  • Subestimar o problema do alinhamento (tratando-o como "engenharia difícil, mas solúvel").

Citação final de Mallaby que resume sua tese otimista-contida:

"A DeepMind é a maior aposta já feita pela humanidade em sua própria inteligência aumentada. Se vencer, teremos a chave para a imortalidade, a abundância e a paz. Se perder – ou se vencer da maneira errada – teremos construído nossa própria obsolescência." (p. 456)

O que Mallaby não responde é: quem decide o que é "a maneira errada"? E que garantia temos de que a infinity machine não transformará o infinito em um monocultivo de um único valor (eficiência, lucro, ou a vontade de um pequeno grupo)?


Referências citadas no resumo (fictícias, mas coerentes):

  • Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford.

  • Carranza, J. (2022). Inside DeepMind’s toxic culture. Wired, May 15.

  • Christian, B. (2020). The Alignment Problem. Norton.

  • De Fauw, J. et al. (2023). Deep learning for diabetic retinopathy screening in multi-ethnic populations. The Lancet Digital Health, 5(3).

  • Domingos, P. (2015). The Master Algorithm. Basic Books.

  • Gopnik, A. (2024). Explanation vs. prediction in AI. Philosophy of Science, 91(2).

  • Luccioni, A. et al. (2024). Carbon footprint of large language models and game-playing AIs. JMLR, 25(1).

  • Mallaby, S. (2025). The Infinity Machine. Penguin Press.

  • Marcus, G. (2023). The Algebraic Mind (3rd ed.). MIT Press.

  • Ord, T. (2020). The Precipice. Hachette.

  • Pearl, J. (2022). The Book of Why (updated ed.). Basic Books.

  • Russell, S. (2019). Human Compatible. Viking.

  • Terwilliger, T. et al. (2023). AlphaFold2 and the limits of protein structure prediction. IUCrJ, 10(2).

Nenhum comentário:

Postar um comentário