A corrida para prever nosso comportamento: Tristan Harris testemunha perante o Congresso

O especialista em ética do design não escondeu suas preocupações ao falar com líderes políticos.

15 anos encontra cidade maia

Tristan Harris

Tristan Harris, Time Well Spent, no palco central durante o segundo dia da Colisão 2018 no Ernest N. Morial Convention Center em Nova Orleans.



Foto de Stephen McCarthy / Sportsfile via Getty Images
  • O ex-especialista em ética de design do Google, Tristan Harris, recentemente falou no Congresso sobre os perigos da Big Tech.
  • Harris disse aos senadores que os modelos de previsão de comportamento são uma parte problemática do design na corrida por atenção.
  • Ele alertou que, sem considerações éticas, os perigos para nossa privacidade só vão piorar.

Em uma estranha virada cultural de eventos, a ética está na vanguarda de inúmeras conversas. Durante décadas, eles foram geralmente esquecidos (fora dos círculos familiares e sociais) ou tratados como modos vitorianos (ou seja, 'meninos serão meninos'). Concentrar-se muito diligentemente na ética provavelmente significava que você era religioso ou professor, ambos desaprovados em um país 'amante da liberdade' como a América. Para atrair a atenção nacional, uma violação ética tinha que ser severa.

A potente combinação da atual administração e preocupações com a privacidade nas empresas de tecnologia - as duas sendo conectadas - emergiu, fazendo com que grande parte da população se perguntasse: É isso quem eu realmente quero ser? É assim que quero ser tratada? Para muitos, as respostas eram não e não.

Embora questões éticas apareçam em nossos tweets e postagens, mais raro é olhar para os motores que conduzem essas narrativas. Não é como se essas plataformas fossem placas de ressonância benignas. Para os socialmente desajeitados, a mídia social oferece cobertura. Podemos digitar nossos demônios (frequentemente) sem recurso, sem nos preocupar com o que olhos e corações lêem nossos discursos vitriólicos; o interminável trolling cobra seu preço. Está ficando cansativo, essas neuroses e inseguranças se manifestando nas telas. A vida 1.0 não é uma nostalgia para a qual retornar, mas a realidade que precisamos reviver, pelo menos na maioria das vezes.



É por isso que o ex-especialista em ética de design do Google, Tristan Harris, deixou o gigante da tecnologia para formar o Center for Humane Technology. Ele sabe que os algoritmos são tóxicos por intenção e, portanto, por design. Então, quando o senador da Dakota do Sul, John Thune, recentemente conduziu uma audiência sobre o uso de algoritmos pelas empresas de tecnologia e como isso afeta o que os consumidores veem online, ele convidou Harris para testemunhar. Considerando o quão sem brilho as audiências anteriores do Congresso sobre tecnologia foram, o governo tem muito o que se atualizar.

O especialista em ética não se conteve. Harris começou informando ao comitê que algoritmos são criados propositalmente para manter as pessoas presas; é uma parte inerente do modelo de negócios.

'É triste para mim porque não está acontecendo por acaso, mas intencionalmente, porque o modelo de negócios é manter as pessoas engajadas, o que em outras palavras, esta audiência é sobre tecnologia persuasiva e persuasão é sobre uma assimetria invisível de poder.'



Tristan Harris - Senado dos EUA 25 de junho de 2019

Harris conta ao painel o que aprendeu como mágico infantil, um tópico que explorou em um Artigo médio de 2016 . O poder de um mágico exige que o público aceite; caso contrário, os truques seriam rapidamente detectados. As ilusões só funcionam quando você não está prestando atenção. As plataformas de tecnologia utilizam uma assimetria semelhante, como a contratação de firmas de relações públicas para contar histórias de conexão global e confiança para cobrir seus rastros reais.

À medida que cada trilha leva à maximização do lucro, as empresas devem se tornar mais agressivas na corrida por atenção. Primeiramente eram gostos e desgostos, tornando os consumidores participantes ativos, fazendo com que eles se sentissem como se tivessem agência pessoal dentro da plataforma. Eles o fazem, até certo ponto, mas à medida que os algoritmos se agitam, eles aprendem o comportamento do usuário, criando 'dois bilhões de Truman Shows'. Esse processo levou à verdadeira preocupação de Harris: inteligência artificial.

A IA, continua Harris, demonstrou predizer nosso comportamento melhor do que nós. Ele pode adivinhar nossa afiliação política com 80 por cento de precisão, descobrir que você é homossexual antes mesmo de você perceber e começar a sugerir que carrinhos de bebê ficam cor-de-rosa antes do teste de gravidez.

Predição é parte integrante de nossa biologia. Como o neurocientista Rodolfo Llinas escreve , os eucariotos navegam em seu ambiente por meio da previsão: esse caminho leva à nutrição (vá!), que se parece com um predador (nade para longe!). Os humanos também - como toda vida biológica - predizem nosso caminho através de nosso meio ambiente. O problema é que, desde a Revolução Industrial, criamos ambientes relativamente seguros para se habitar. Como não precisamos prestar atenção a arbustos ou predadores à espreita, transferimos memória para calendários e dispositivos GPS; transferimos agência para os computadores em nossas mãos. Nossos sentidos de aranha diminuíram.

Mesmo durante a revolução tecnológica, continuamos animais do Paleolítico. Nosso tribalismo é óbvio. Harris diz que, na corrida por atenção, as empresas exploram nossa necessidade de validação social, usando o protocolo do neurocientista Paul MacLean modelo de cérebro triuno para explicar a descida do tronco cerebral para nossos impulsos mais básicos. Combine isso com uma consciência esgotada de nosso entorno e influenciar nosso comportamento torna-se simples. Quando a atenção está focada puramente na sobrevivência - nesta era, sobrevivendo nas redes sociais - surge uma forma de narcisismo em massa: tudo gira em torno de si mesmo. O mundo encolhe à medida que o ego se expande.

Nós conhecemos bem o problemas algorítmicos com o Youtube: 70 por cento do tempo gasto assistindo a vídeos é graças a recomendações. O jornalista Eric Schlosser tem escrito sobre a evolução da pornografia: nudez parcial tornou-se softcore tornou-se hardcore tornou-se qualquer coisa imaginável porque continuamos nos aclimatando com o que antes era escandaloso e queríamos mais. A espiral do Youtube cria uma jornada movida a dopamina pela política de direita e esquerda. Depois de validado, você fará de tudo para manter esse sentimento vivo. Como seu ambiente é o mundo dentro de sua cabeça influenciado por uma tela, o hipnotismo é uma brincadeira de criança para uma IA sem senso de altruísmo ou compaixão.

Como um punhado de empresas de tecnologia controla bilhões de mentes todos os dias | Tristan Harris

Esse sentimento de indignação gerado pela validação é ouro para as empresas de tecnologia. Como diz Harris, a corrida para prever seu comportamento ocorre clique a clique.

'O Facebook tem algo chamado de previsão de lealdade, onde eles podem realmente prever para um anunciante quando você está prestes a se tornar desleal a uma marca. Portanto, se você é mãe e leva fraldas Pampers, eles podem dizer à Pampers: 'Ei, esse usuário está prestes a se tornar desleal a esta marca.' Em outras palavras, eles podem prever coisas sobre nós que não sabemos sobre nós mesmos. '

Harris não é o único preocupado com esta corrida. Escritor de tecnologia Arthur Holland Michel discutido recentemente uma tendência igualmente (se não mais) perturbadora na Amazon que encapsula perfeitamente a junção entre previsão e privacidade.

'A Amazon tem uma patente para um sistema para analisar as imagens de vídeo de propriedades privadas coletadas por seus drones de entrega e, em seguida, alimentar essa análise em seu algoritmo de recomendação de produto. Você compra uma capa para iPad, um drone chega em sua casa e a entrega. Ao entregar este pacote, o sistema de visão do computador do drone detecta que as árvores em seu quintal parecem insalubres, o que é inserido no sistema, e então você recebe uma recomendação de fertilizante para árvores. '

Harris relata essa prática de empresas de tecnologia a um padre que vende acesso a cabines confessionais, mas nesse caso essas plataformas têm bilhões de confissões para vender. Depois que eles descobrirem o que você está confessando, é fácil prever o que você vai confessar a seguir. Com essas informações, eles podem vendê-lo antes que você tivesse qualquer ideia de que estava no mercado.

39 perguntas para se apaixonar

Harris observa o fato de que Fred Rogers sentou-se diante do mesmo comitê do Congresso cinquenta anos antes para alertar sobre os perigos do 'bombardeio animado'. Ele acha que o vizinho mais amigável do mundo ficaria horrorizado com a evolução de sua previsão. Os algoritmos estão influenciando nossa política, relações raciais, políticas ambientais - não podemos nem comemorar uma vitória na Copa do Mundo sem politização (e não estou me referindo à igualdade de remuneração, que é um ótimo uso dessa plataforma).

A natureza da identidade sempre foi uma questão filosófica, mas uma coisa é certa: ninguém está imune à influência. A ética não estava embutida no sistema em que agora contamos. Se não os adicionarmos conscientemente - e terá de ser aí que o governo intervém, já que a ideia de empresas que se autorregulam é uma piada - qualquer nível de poder assimétrico é possível. Ficaremos maravilhados com o pássaro piando voando do chapéu, ignorantes do homem sorridente que o puxou do nada.

-

Fique em contato com Derek no Twitter e Facebook .

Idéias Frescas

Categoria

Outro

13-8

Cultura E Religião

Alquimista Cidade

Livros Gov-Civ-Guarda.pt

Gov-Civ-Guarda.pt Ao Vivo

Patrocinado Pela Fundação Charles Koch

Coronavírus

Ciência Surpreendente

Futuro Da Aprendizagem

Engrenagem

Mapas Estranhos

Patrocinadas

Patrocinado Pelo Institute For Humane Studies

Patrocinado Pela Intel The Nantucket Project

Patrocinado Pela Fundação John Templeton

Patrocinado Pela Kenzie Academy

Tecnologia E Inovação

Política E Atualidades

Mente E Cérebro

Notícias / Social

Patrocinado Pela Northwell Health

Parcerias

Sexo E Relacionamentos

Crescimento Pessoal

Podcasts Do Think Again

Patrocinado Por Sofia Gray

Vídeos

Patrocinado Por Sim. Cada Criança.

Recomendado