Não há como impedirmos uma IA desonesta

Os cientistas do Instituto Max Planck se chocam contra uma parede de computação, parece não haver outra saída.

Não há como impedirmos uma IA desonestaCrédito: Josefkubes / Adobe Stock
  • A inteligência artificial mais inteligente do que nós poderia potencialmente resolver problemas além do nosso alcance.
  • IA com autoaprendizagem pode absorver todas as informações de que precisam da Internet, uma caixa de Pandora, se é que alguma vez existiu.
  • A própria natureza da computação nos impede de limitar as ações de uma IA superinteligente se ela ficar fora de controle.

Tem havido um bom número de vozes - Stephen Hawking entre eles - criado para alertar que uma inteligência artificial superinteligente poderia um dia se voltar contra nós e que não deveríamos ter tanta pressa e inquestionável de desenvolver IA verdadeira. Outros dizem , não, não se preocupe. Agora, um novo white paper de cientistas da Centro para Humanos e Máquinas do Instituto Max Planck para o Desenvolvimento Humano apresenta uma série de testes teóricos que confirmam a ameaça: Devido aos conceitos básicos subjacentes à computação, seríamos totalmente incapazes de controlar uma IA superinteligente.



“Argumentamos que a contenção total é, em princípio, impossível, devido aos limites fundamentais inerentes à própria computação”, escrevem os autores do artigo.



O white paper é publicado no Journal of Artificial Intelligence Research .

Por que se preocupar?

Crédito: @por exemplo / Adobe Stock



tamanho da áfrica em comparação com a américa do norte

'Uma máquina superinteligente que controla o mundo parece ficção científica', diz o co-autor do artigo Manuel Cebrian em um Comunicado de imprensa . “Mas já existem máquinas que realizam certas tarefas importantes de forma independente, sem que os programadores entendam totalmente como as aprenderam. Portanto, surge a questão de saber se isso poderia em algum momento se tornar incontrolável e perigoso para a humanidade. '

A atração da IA ​​é clara. Sua capacidade de 'ver' os padrões dos dados o torna um agente promissor para a solução de problemas complexos demais para compreendermos. Pode curar o câncer? Resolver a crise climática? As possibilidades são quase infinitas.

Conectada à Internet, a IA pode obter todas as informações de que precisa para realizar sua tarefa, e nisso reside grande parte do perigo. Com acesso a cada bit de dados humanos - e responsável por sua própria educação - quem sabe quais lições ele aprenderia, independentemente de quaisquer restrições éticas embutidas em sua programação? Quem sabe quais objetivos seriam adotados e o que poderia ser feito para alcançá-los?



Mesmo assumindo benevolência, existe perigo. Suponha que uma IA seja confrontada por uma escolha ou / ou semelhante à Dilema do carrinho , talvez até em grande escala: poderia uma IA decidir aniquilar milhões de pessoas se decidisse que os bilhões restantes teriam uma chance melhor de sobrevivência?

futuro mapa político do mundo

Um par de opções falhas

Crédito: Maxim_Kazmin / Adobe Stock

A maneira mais óbvia de evitar que uma IA superinteligente se antecipe é limitar seu acesso às informações, impedindo-o de se conectar à Internet. O problema de limitar o acesso à informação, porém, é que tornaria qualquer problema atribuído à IA mais difícil de ser resolvido. Estaríamos enfraquecendo sua promessa de resolução de problemas, possivelmente a um ponto de inutilidade.

A segunda abordagem que pode ser feita é limitar o que uma IA superinteligente é capaz de fazer ao programar certos limites. Isso pode ser semelhante ao do escritor Isaac Asimov Leis da Robótica , o primeiro dos quais diz: 'Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum dano.'

Infelizmente, diz o estudo, uma série de testes lógicos revelam que é impossível criar tais limites. Qualquer um desses algoritmos de contenção, ao que parece, seria contraproducente.

esqueça a história condenada a repeti-la

A contenção é impossível

Crédito: UncleFredDesign / Adobe Stock

'Se você dividir o problema em regras básicas da ciência da computação teórica, descobre-se que um algoritmo que comandaria uma IA para não destruir o mundo poderia inadvertidamente interromper suas próprias operações. Se isso acontecer, você não saberá se o algoritmo de contenção ainda está analisando a ameaça ou se parou para conter a IA prejudicial. Com efeito, isso torna o algoritmo de contenção inutilizável. '

A equipe investigou algoritmos de contenção de empilhamento, com cada um monitorando o comportamento do anterior, mas eventualmente o mesmo problema surge: A verificação final para sozinha, tornando-a não confiável.

Muito inteligente?

Os pesquisadores do Planck também concluíram que uma lógica semelhante torna impossível saber quando a inteligência de um computador com autoaprendizagem ultrapassou a nossa. Essencialmente, não somos inteligentes o suficiente para desenvolver testes de inteligência superiores aos nossos.

'As máquinas me pegam de surpresa com grande frequência. Isso ocorre principalmente porque eu não faço cálculos suficientes para decidir o que esperar que eles façam. ' - Alan Turing

Isso significa que é inteiramente concebível que uma IA capaz de autoaprendizagem possa ascender silenciosamente à superinteligência, sem que sequer saibamos - uma razão assustadora por si só para desacelerar nossa corrida alucinante para a inteligência artificial.

No final, ficamos com uma barganha perigosa a fazer ou não: arriscamos nossa segurança em troca da possibilidade de a IA resolver problemas que não podemos?

Idéias Frescas

Categoria

Outro

13-8

Cultura E Religião

Alquimista Cidade

Livros Gov-Civ-Guarda.pt

Gov-Civ-Guarda.pt Ao Vivo

Patrocinado Pela Fundação Charles Koch

Coronavírus

Ciência Surpreendente

Futuro Da Aprendizagem

Engrenagem

Mapas Estranhos

Patrocinadas

Patrocinado Pelo Institute For Humane Studies

Patrocinado Pela Intel The Nantucket Project

Patrocinado Pela Fundação John Templeton

Patrocinado Pela Kenzie Academy

Tecnologia E Inovação

Política E Atualidades

Mente E Cérebro

Notícias / Social

Patrocinado Pela Northwell Health

Parcerias

Sexo E Relacionamentos

Crescimento Pessoal

Podcasts Do Think Again

Patrocinado Por Sofia Gray

Vídeos

Patrocinado Por Sim. Cada Criança.

Recomendado