O medo da IA é o medo da superpopulação deste século
Eliezer Yudkowsky é o mesmo falso profeta que Paul Ehrlich foi?
- Os profetas da desgraça tendem a dominar as notícias. Paul Ehrlich ficou famoso ao afirmar que a Terra estava superpovoada e os humanos sofreriam fome em massa. Eles nunca aconteceram.
- Hoje, estamos testemunhando previsões hiperbólicas semelhantes de desgraça por aqueles que temem a inteligência artificial.
- Todos os profetas da desgraça devem ser obrigados a responder a esta pergunta: 'Em que data específica no futuro, se o apocalipse não aconteceu, você finalmente admitirá estar errado?'
Esse artigo é adaptado de um que foi originalmente publicado no Pessimists Archive.
“Em algum momento nos próximos 15 anos, o fim chegará.”
Lendo isso em 2023, você pode ser perdoado por pensar que essas palavras vieram de um alarmista de inteligência artificial (IA) como Eliezer Yudkowsky. Yudkowsky é um pesquisador autodidata cujas previsões sobre máquinas inteligentes se aproximam do apocalíptico. “O resultado mais provável da construção de uma IA inteligente sobre-humana… é que literalmente todos na Terra morrerão”, Yudkowsky escreveu no início desta semana em um artigo para Tempo . “Não estamos preparados. Não estamos a caminho de estar preparados em qualquer janela de tempo razoável. Não há plano.”
Mas as palavras “em algum momento nos próximos 15 anos, o fim chegará” não são de Yudkowsky. Eles são de um prognosticador igualmente sombrio há mais de 50 anos: Paul Ehrlich. Ehrlich, biólogo em Stanford, autor A bomba populacional , que argumentou que a população em expansão da Terra significaria a desgraça para a humanidade. (A ideia de que existem muitos pessoas, provado errado décadas atrás, é ainda moda em alguns círculos.)

Em 1968, quando Ehrlich escreveu A bomba populacional , havia 3,5 bilhões de humanos. Agora, existem mais de oito bilhões de nós. As fomes que Ehrlich previu nunca aconteceu — enquanto a população mundial dobrou, a eficiência agrícola triplicou. As pessoas não são fardos; podemos inovar a partir da escassez de recursos.
“A maioria das pessoas que vão morrer no maior cataclismo da história do homem já nasceu.” As palavras são de Ehrlich, mas poderiam facilmente ter vindo de Yudkowsky, que uma vez declarado que as crianças concebidas em 2022 têm apenas “uma chance justa” de “viver para ver o jardim de infância”.
Já vimos este filme antes
Ehrlich e Yudkowsky são ambos fatalistas. Suas profecias são de pânico e desamparo – as forças da modernidade, ou do capitalismo, ou da seleção natural já saíram do controle. Não há nada que você possa fazer a não ser esperar pela morte. (Notoriamente, a primeira frase de A bomba populacional foi: “A batalha para alimentar toda a humanidade acabou.”) Yudkowsky avalia que, para a humanidade sobreviver, ele teria que estar completamente errado. “Basicamente, não vejo resultados esperançosos no modelo neste momento.”
Felizmente para a humanidade, a história provará que Yudkowsky está tão errado quanto Ehrlich. No entanto, sua fé equivocada de que todos vamos morrer tem raízes profundas. Milhões de anos de evolução causas humanos vejam a desgraça iminente, mesmo quando ela não está lá. Isso é verdade para fins de dias religiosos, fomes ilusórias ou IA descontrolada. As ansiedades de Yudkowsky nem são originais: as máquinas do mal têm sido um ponto de virada na ficção científica por mais de um século.

apocalipse depois
O Dia do Julgamento não está chegando; Yudkowsky está sistematicamente errado sobre a tecnologia. Pegue sua metáfora testada e comprovada para superinteligência, computadores de xadrez. Os computadores, notoriamente, têm sido melhores no xadrez do que os humanos por um quarto de século. Então, afirma Yudkowsky, os humanos lutando contra um sistema de IA desonesto seriam como “uma criança de 10 anos tentando jogar xadrez contra o Stockfish 15 [um poderoso mecanismo de xadrez]”.
O xadrez, no entanto, é um jogo limitado, assíncrono, simétrico e facilmente simulado, no qual um sistema de IA pode jogar contra si mesmo milhões de vezes para melhorar. O mundo real, para simplificar, não é assim. (Isso deixa de lado outras objeções, como a suposição de Yudkowsky de que não há retornos decrescentes da inteligência à medida que um sistema se torna mais inteligente, ou que tal sistema está próximo de ser construído.)
O medo da IA tem consequências. Já, luminares como Elon Musk, Steve Wozniak e Andrew Yang assinaram um carta aberta que pressiona os pesquisadores a interromper o treinamento de poderosos sistemas de IA por seis meses. (“Devemos arriscar a perda de controle de nossa civilização?”, pergunta, de forma bastante melodramática.) No entanto, sufocar a IA não salvará a humanidade da destruição - mas pode condenar pessoas cujas mortes poderiam ter sido evitadas por uma descoberta assistida por IA de novas drogas. Yudkowsky, porém, acha que a carta aberta não vai longe o suficiente: ele quer que os governos “rastreiem todas as GPUs vendidas” e “destruam… datacenters desonestos por ataque aéreo”.
Há ecos sombrios aqui. Um número agonizante de pessoas lógicas e bem-intencionadas leva as ideias de Yudkowsky a sério, pelo menos o suficiente para assinar a carta aberta. Cinquenta anos atrás, um número comparativamente agonizante adotou as ideias de Paul Ehrlich sobre superpopulação, incluindo os governos dos dois maiores países da Terra. O resultado foi esterilização forçada na Índia e no um pequeno policial na China, com o apoio de instituições internacionais como o Banco Mundial.
Gente séria, conversa nada séria
Yudkowsky e Ehrlich são pessoas que você deve levar a sério. Eles se associam a acadêmicos, filósofos e cientistas pesquisadores. Certamente, eles se consideram pessoas racionais e científicas. Mas suas palavras não são sérias. Eles estão fomentando o medo e agora estão investindo demais em sua reputação em sua posição declarada publicamente para questionar suas próprias crenças.
Paul Ehrlich, agora com 90 anos, continua acreditando que seu único erro foi atribuir as datas erradas às suas previsões. Esperançosamente, Yudkowsky aprenderá com seu erro e não seguirá seus passos.
“Quantos anos você tem para não ver o mundo acabar” para perceber que “talvez não tenha acabado porque esse motivo estava errado?” pergunta Stewart Brand, um ex-apoiador de Ehrlich, que foi citado no New York Times . Qualquer pessoa que preveja catástrofe ou colapso deve responder a esta pergunta. Em que data específica no futuro, se o apocalipse não aconteceu, o profeta da desgraça finalmente admitirá estar errado?
Compartilhar: