Pesquisadores alertam: tecnologia será usada para interagir com eleitores e gerar programas políticos que maximizem chances de vitória. Falta de ideias genuínas de humanos pode minar a democracia. Quais os caminhos para evitar este desastre?
Publicado 05/06/2023 às 18:33 - OutrasPalavras
Por Archon Fung e Lawrence Lessig, no The Conversation, traduzido pelo Brasil de Fato
As organizações poderiam usar modelos de linguagem de inteligência artificial, como o ChatGPT, para induzir os eleitores a se comportarem de maneiras específicas?
O senador Josh Hawley fez esta pergunta ao CEO da OpenAI, Sam Altman, em uma audiência do Senado dos EUA sobre inteligência artificial em 16 de maio de 2023. Altman respondeu que estava realmente preocupado com a possibilidade de algumas pessoas usarem modelos de linguagem para manipular, persuadir e se envolver em interações individuais com os eleitores.
Altman não entrou em detalhes, mas ele poderia ter algo parecido com esse cenário em mente. Imagine que em breve os tecnólogos políticos desenvolvam uma máquina chamada Clogger – uma campanha política em uma caixa preta. Clogger persegue incansavelmente apenas um objetivo: maximizar as chances de que seu candidato (a campanha que compra os serviços da Clogger Inc.) prevaleça em uma disputa eleitoral.
Enquanto plataformas como Facebook, Twitter e YouTube usam formas de IA para fazer com que os usuários passem mais tempo em seus sites, a IA de Clogger teria um objetivo diferente: mudar o comportamento das pessoas na hora de votar.
Como o Clogger funcionaria
Como cientista político e jurista que estuda a interseção entre tecnologia e democracia, acreditamos que algo como Clogger poderia usar a automação para aumentar drasticamente a escala e potencialmente a eficácia da manipulação de comportamento e das técnicas de microdirecionamento que as campanhas políticas têm usado desde o início dos anos 2000. Assim como os anunciantes usam sua navegação e histórico de mídia social para direcionar individualmente anúncios comerciais e políticos agora, Clogger prestaria atenção em você – e em centenas de milhões de outros eleitores – de forma individual.
Ele ofereceria três avanços em relação ao atual estado de arte do comportamento algorítmico de última geração. Primeiro, seu modelo de linguagem geraria mensagens – textos, mídia social e e-mail, talvez incluindo imagens e vídeos – personalizadas para você pessoalmente. Enquanto os anunciantes colocam estrategicamente um número relativamente pequeno de anúncios, modelos de linguagem como o ChatGPT podem gerar inúmeras mensagens exclusivas para você pessoalmente – e milhões para outras pessoas – ao longo de uma campanha.
Em segundo lugar, Clogger usaria uma técnica chamada aprendizado por reforço para gerar uma sucessão de mensagens que se tornam cada vez mais efetivas para mudar seu voto. O aprendizado por reforço é uma abordagem de aprendizado de máquina, de tentativa e erro, na qual o computador realiza ações e obtém feedback sobre o que funciona melhor para atingir um objetivo. Máquinas que podem jogar Go, Xadrez e muitos videogames melhor do que qualquer ser humano usaram o aprendizado por reforço.
Em terceiro lugar, ao longo de uma campanha, as mensagens do Clogger podem evoluir para levar em consideração suas respostas aos despachos anteriores da máquina e o que ela aprendeu sobre mudar a opinião dos outros. O Clogger seria capaz de manter “conversas” dinâmicas com você – e milhões de outras pessoas – ao longo do tempo. As mensagens do Clogger seriam semelhantes a anúncios que seguem você em diferentes sites e mídias sociais.
A natureza da inteligência artificial
Mais três recursos – ou bugs – são dignos de nota.
Primeiro, as mensagens que o Clogger envia podem ou não ter conteúdo político. O único objetivo da máquina é maximizar a parcela de votos, e provavelmente ele criaria estratégias para atingir esse objetivo as quais nenhum ativista humano teria pensado.
Uma possibilidade é enviar aos prováveis eleitores adversários informações sobre paixões não políticas que eles têm em esportes ou entretenimento para enterrar a mensagem política que recebem. Outra possibilidade é o envio de mensagens desconcertantes – por exemplo, anúncios de incontinência – programados para coincidir com as mensagens dos oponentes. E outra é manipular os grupos de amigos de mídia social dos eleitores para dar a impressão de que seus círculos sociais apoiam seu candidato.
Em segundo lugar, Clogger não tem consideração pela verdade. De fato, ele não tem como saber o que é verdadeiro ou falso. As “alucinações” do modelo de linguagem não são um problema para esta máquina porque seu objetivo é mudar seu voto, não fornecer informações precisas.
Em terceiro lugar, por ser um tipo de inteligência artificial de caixa preta, as pessoas não teriam como saber quais estratégias ela usa.
Clogocracia
Se a campanha presidencial republicana implantasse Clogger em 2024, a campanha democrata provavelmente seria obrigada a responder da mesma forma, talvez com uma máquina semelhante. Chame-a de Dogger. Se os gerentes de campanha pensassem que essas máquinas seriam eficazes, a disputa presidencial poderia se resumir a Clogger x Dogger, e o vencedor seria o cliente da máquina mais eficaz.
Cientistas políticos e especialistas teriam muito a dizer sobre por que uma ou outra IA prevaleceu, mas provavelmente ninguém realmente saberia. O presidente terá sido eleito não porque suas propostas ou ideias políticas persuadiram mais americanos, mas porque ele ou ela tinha a IA mais eficaz. O conteúdo que ganhou o dia teria vindo de uma IA focada apenas na vitória, sem ideias políticas próprias, e não de candidatos ou partidos.
Nesse sentido, uma máquina teria vencido a eleição em vez de uma pessoa. A eleição não seria mais democrática, mesmo que todas as atividades ordinárias da democracia – os discursos, os anúncios, as mensagens, a votação e a apuração dos votos – tenham ocorrido.
O presidente eleito pela IA poderia então seguir um de dois caminhos. Ele ou ela poderia usar o manto da eleição para seguir as políticas do Partido Republicano ou Democrata. Mas como as ideias partidárias podem ter pouco a ver com o motivo pelo qual as pessoas votaram da maneira que votaram – Clogger e Dogger não se importam com opiniões políticas – as ações do presidente não refletiriam necessariamente a vontade dos eleitores. Os eleitores teriam sido manipulados pela IA em vez de escolher livremente seus líderes e políticas políticas.
Outro caminho é o presidente seguir as mensagens, comportamentos e políticas que a máquina prevê que maximizarão as chances de reeleição. Nesse caminho, o presidente não teria nenhuma plataforma ou agenda específica além de manter o poder. As ações do presidente, guiadas por Clogger, seriam as mais propensas a manipular os eleitores em vez de servir a seus interesses genuínos ou mesmo à própria ideologia do presidente.
Evitando a Clogocracia
Seria possível evitar a manipulação eleitoral da IA se todos os candidatos, campanhas e consultores renunciassem ao uso de tal IA política. Acreditamos que isso seja improvável. Se caixas-pretas politicamente eficazes fossem desenvolvidas, a tentação de usá-las seria quase irresistível. De fato, os consultores políticos podem ver o uso dessas ferramentas como uma exigência na sua responsabilidade profissional de ajudar seus candidatos a vencer. E uma vez que um candidato usa uma ferramenta tão eficaz, dificilmente se pode esperar que os oponentes resistam desarmando-se unilateralmente.
A proteção aprimorada da privacidade ajudaria. O Clogger dependeria do acesso a grandes quantidades de dados pessoais para atingir indivíduos, criar mensagens personalizadas para persuadi-los ou manipulá-los e rastreá-los e redirecioná-los ao longo de uma campanha. Cada pedacinho dessa informação que as empresas ou formuladores de políticas negam à máquina a tornaria menos eficaz.
Outra solução está nas comissões eleitorais. Eles poderiam tentar proibir ou regular severamente essas máquinas. Há um debate acirrado sobre se esse discurso “replicante”, mesmo que de natureza política, pode ser regulamentado. A extrema tradição de liberdade de expressão dos EUA leva muitos acadêmicos importantes a dizer que não.
Mas não há razão para estender automaticamente a proteção da Primeira Emenda ao produto dessas máquinas. A nação pode muito bem optar por conceder direitos às máquinas, mas essa deve ser uma decisão baseada nos desafios de hoje, não na suposição equivocada de que as opiniões de James Madison em 1789 pretendiam ser aplicadas à IA.
Os reguladores da União Europeia estão indo nessa direção. Os formuladores de políticas revisaram o rascunho do Parlamento Europeu de sua Lei de Inteligência Artificial para designar “sistemas de IA para influenciar os eleitores em campanhas” como de “alto risco” e sujeitos a escrutínio regulatório.
Uma medida constitucionalmente mais segura, embora menor, já adotada em parte pelos reguladores europeus da Internet e na Califórnia , é proibir que os bots se façam passar por pessoas. Por exemplo, a regulamentação pode exigir que as mensagens de campanha venham com isenções de responsabilidade quando o conteúdo delas for gerado por máquinas e não por humanos.
Isso seria como os requisitos de isenção de responsabilidade de publicidade – “Pago pelo Sam Jones for Congress Committee” – mas modificado para refletir sua origem de IA: “Este anúncio gerado por IA foi pago pelo Sam Jones for Congress Committee”. Uma versão mais forte poderia exigir: “Esta mensagem gerada por IA está sendo enviada a você pelo Sam Jones for Congress Committee porque Clogger previu que isso aumentará suas chances de votar em Sam Jones em 0,0002%”. No mínimo, acreditamos que os eleitores merecem saber quando é um bot falando com eles, e eles também devem saber por quê.
A possibilidade de um sistema como Clogger mostra que o caminho para o desempoderamento coletivo humano pode não exigir alguma inteligência artificial sobre-humana. Isso pode exigir apenas ativistas e consultores ansiosos que tenham novas ferramentas poderosas que possam efetivamente apertar os muitos botões de milhões de pessoas.
Archon Fung é professor de Cidadania e Autogoverno na Harvard Kennedy School
Lawrence Lessig é professor de Direito e Liderança na Harvard University