O medo da IA ​​é o medo da superpopulação deste século

Eliezer Yudkowsky é o mesmo falso profeta que Paul Ehrlich foi?
  um livro e capa de revista e artigo
Crédito: Sierra Club / Ballantine Books, TEMPO Revista, e o New York Times
Principais conclusões
  • Os profetas da desgraça tendem a dominar as notícias. Paul Ehrlich ficou famoso ao afirmar que a Terra estava superpovoada e os humanos sofreriam fome em massa. Eles nunca aconteceram.
  • Hoje, estamos testemunhando previsões hiperbólicas semelhantes de desgraça por aqueles que temem a inteligência artificial.
  • Todos os profetas da desgraça devem ser obrigados a responder a esta pergunta: 'Em que data específica no futuro, se o apocalipse não aconteceu, você finalmente admitirá estar errado?'
Archie McKenzie Compartilhar Medo da IA ​​é o susto da superpopulação deste século no Facebook Compartilhar Medo da IA ​​é o susto de superpopulação deste século no Twitter Compartilhe Medo da IA ​​é o susto de superpopulação deste século no LinkedIn

Esse artigo é adaptado de um que foi originalmente publicado no Pessimists Archive.



“Em algum momento nos próximos 15 anos, o fim chegará.”

Lendo isso em 2023, você pode ser perdoado por pensar que essas palavras vieram de um alarmista de inteligência artificial (IA) como Eliezer Yudkowsky. Yudkowsky é um pesquisador autodidata cujas previsões sobre máquinas inteligentes se aproximam do apocalíptico. “O resultado mais provável da construção de uma IA inteligente sobre-humana… é que literalmente todos na Terra morrerão”, Yudkowsky escreveu no início desta semana em um artigo para Tempo . “Não estamos preparados. Não estamos a caminho de estar preparados em qualquer janela de tempo razoável. Não há plano.”

Mas as palavras “em algum momento nos próximos 15 anos, o fim chegará” não são de Yudkowsky. Eles são de um prognosticador igualmente sombrio há mais de 50 anos: Paul Ehrlich. Ehrlich, biólogo em Stanford, autor A bomba populacional , que argumentou que a população em expansão da Terra significaria a desgraça para a humanidade. (A ideia de que existem muitos pessoas, provado errado décadas atrás, é ainda moda em alguns círculos.)



Crédito: Newspapers.com

Em 1968, quando Ehrlich escreveu A bomba populacional , havia 3,5 bilhões de humanos. Agora, existem mais de oito bilhões de nós. As fomes que Ehrlich previu nunca aconteceu — enquanto a população mundial dobrou, a eficiência agrícola triplicou. As pessoas não são fardos; podemos inovar a partir da escassez de recursos.

“A maioria das pessoas que vão morrer no maior cataclismo da história do homem já nasceu.” As palavras são de Ehrlich, mas poderiam facilmente ter vindo de Yudkowsky, que uma vez declarado que as crianças concebidas em 2022 têm apenas “uma chance justa” de “viver para ver o jardim de infância”.

Já vimos este filme antes

Ehrlich e Yudkowsky são ambos fatalistas. Suas profecias são de pânico e desamparo – as forças da modernidade, ou do capitalismo, ou da seleção natural já saíram do controle. Não há nada que você possa fazer a não ser esperar pela morte. (Notoriamente, a primeira frase de A bomba populacional foi: “A batalha para alimentar toda a humanidade acabou.”) Yudkowsky avalia que, para a humanidade sobreviver, ele teria que estar completamente errado. “Basicamente, não vejo resultados esperançosos no modelo neste momento.”



Felizmente para a humanidade, a história provará que Yudkowsky está tão errado quanto Ehrlich. No entanto, sua fé equivocada de que todos vamos morrer tem raízes profundas. Milhões de anos de evolução causas humanos vejam a desgraça iminente, mesmo quando ela não está lá. Isso é verdade para fins de dias religiosos, fomes ilusórias ou IA descontrolada. As ansiedades de Yudkowsky nem são originais: as máquinas do mal têm sido um ponto de virada na ficção científica por mais de um século.

  um par de jornais que estão um em cima do outro.
Crédito: Newspapers.com

apocalipse depois

O Dia do Julgamento não está chegando; Yudkowsky está sistematicamente errado sobre a tecnologia. Pegue sua metáfora testada e comprovada para superinteligência, computadores de xadrez. Os computadores, notoriamente, têm sido melhores no xadrez do que os humanos por um quarto de século. Então, afirma Yudkowsky, os humanos lutando contra um sistema de IA desonesto seriam como “uma criança de 10 anos tentando jogar xadrez contra o Stockfish 15 [um poderoso mecanismo de xadrez]”.

O xadrez, no entanto, é um jogo limitado, assíncrono, simétrico e facilmente simulado, no qual um sistema de IA pode jogar contra si mesmo milhões de vezes para melhorar. O mundo real, para simplificar, não é assim. (Isso deixa de lado outras objeções, como a suposição de Yudkowsky de que não há retornos decrescentes da inteligência à medida que um sistema se torna mais inteligente, ou que tal sistema está próximo de ser construído.)

O medo da IA ​​tem consequências. Já, luminares como Elon Musk, Steve Wozniak e Andrew Yang assinaram um carta aberta que pressiona os pesquisadores a interromper o treinamento de poderosos sistemas de IA por seis meses. (“Devemos arriscar a perda de controle de nossa civilização?”, pergunta, de forma bastante melodramática.) No entanto, sufocar a IA não salvará a humanidade da destruição - mas pode condenar pessoas cujas mortes poderiam ter sido evitadas por uma descoberta assistida por IA de novas drogas. Yudkowsky, porém, acha que a carta aberta não vai longe o suficiente: ele quer que os governos “rastreiem todas as GPUs vendidas” e “destruam… datacenters desonestos por ataque aéreo”.



Há ecos sombrios aqui. Um número agonizante de pessoas lógicas e bem-intencionadas leva as ideias de Yudkowsky a sério, pelo menos o suficiente para assinar a carta aberta. Cinquenta anos atrás, um número comparativamente agonizante adotou as ideias de Paul Ehrlich sobre superpopulação, incluindo os governos dos dois maiores países da Terra. O resultado foi esterilização forçada na Índia e no um pequeno policial na China, com o apoio de instituições internacionais como o Banco Mundial.

Gente séria, conversa nada séria

Yudkowsky e Ehrlich são pessoas que você deve levar a sério. Eles se associam a acadêmicos, filósofos e cientistas pesquisadores. Certamente, eles se consideram pessoas racionais e científicas. Mas suas palavras não são sérias. Eles estão fomentando o medo e agora estão investindo demais em sua reputação em sua posição declarada publicamente para questionar suas próprias crenças.

Paul Ehrlich, agora com 90 anos, continua acreditando que seu único erro foi atribuir as datas erradas às suas previsões. Esperançosamente, Yudkowsky aprenderá com seu erro e não seguirá seus passos.

“Quantos anos você tem para não ver o mundo acabar” para perceber que “talvez não tenha acabado porque esse motivo estava errado?” pergunta Stewart Brand, um ex-apoiador de Ehrlich, que foi citado no New York Times . Qualquer pessoa que preveja catástrofe ou colapso deve responder a esta pergunta. Em que data específica no futuro, se o apocalipse não aconteceu, o profeta da desgraça finalmente admitirá estar errado?

Compartilhar:



Seu Horóscopo Para Amanhã

Idéias Frescas

Categoria

Outro

13-8

Cultura E Religião

Alquimista Cidade

Livros Gov-Civ-Guarda.pt

Gov-Civ-Guarda.pt Ao Vivo

Patrocinado Pela Fundação Charles Koch

Coronavírus

Ciência Surpreendente

Futuro Da Aprendizagem

Engrenagem

Mapas Estranhos

Patrocinadas

Patrocinado Pelo Institute For Humane Studies

Patrocinado Pela Intel The Nantucket Project

Patrocinado Pela Fundação John Templeton

Patrocinado Pela Kenzie Academy

Tecnologia E Inovação

Política E Atualidades

Mente E Cérebro

Notícias / Social

Patrocinado Pela Northwell Health

Parcerias

Sexo E Relacionamentos

Crescimento Pessoal

Podcasts Do Think Again

Vídeos

Patrocinado Por Sim. Cada Criança.

Geografia E Viagens

Filosofia E Religião

Entretenimento E Cultura Pop

Política, Lei E Governo

Ciência

Estilos De Vida E Questões Sociais

Tecnologia

Saúde E Medicina

Literatura

Artes Visuais

Lista

Desmistificado

História Do Mundo

Esportes E Recreação

Holofote

Companheiro

#wtfact

Pensadores Convidados

Saúde

O Presente

O Passado

Ciência Dura

O Futuro

Começa Com Um Estrondo

Alta Cultura

Neuropsicologia

Grande Pensamento+

Vida

Pensamento

Liderança

Habilidades Inteligentes

Arquivo Pessimistas

Começa com um estrondo

Grande Pensamento+

Neuropsicologia

Ciência dura

O futuro

Mapas estranhos

Habilidades Inteligentes

O passado

Pensamento

O poço

Saúde

Vida

Outro

Alta cultura

A Curva de Aprendizagem

Arquivo Pessimistas

O presente

Patrocinadas

A curva de aprendizado

Liderança

ciência difícil

De outros

Pensando

Arquivo dos Pessimistas

Negócios

Artes E Cultura

Recomendado