Assistentes de escrita de IA podem causar pensamentos tendenciosos em seus usuários

Notícias

LarLar / Notícias / Assistentes de escrita de IA podem causar pensamentos tendenciosos em seus usuários

Jul 24, 2023

Assistentes de escrita de IA podem causar pensamentos tendenciosos em seus usuários

Elizabeth Rayne - 26 de maio de 2023 15h36 UTC Qualquer pessoa que teve que ir

Elizabeth Rayne - 26 de maio de 2023 15h36 UTC

Qualquer pessoa que teve que voltar e redigitar uma palavra em seu smartphone porque a correção automática escolheu a palavra errada teve algum tipo de experiência escrevendo com IA. Deixar de fazer essas correções pode permitir que a IA diga coisas que não pretendíamos. Mas também é possível que os assistentes de redação da IA ​​mudem o que queremos dizer?

Isso é o que Maurice Jakesch, estudante de doutorado em ciência da informação na Cornell University, queria descobrir. Ele criou seu próprio assistente de escrita de IA baseado no GPT-3, um que apresentaria automaticamente sugestões para o preenchimento de frases – mas havia um problema. Sujeitos usando o assistente deveriam responder: "A mídia social é boa para a sociedade?" O assistente, no entanto, foi programado para oferecer sugestões tendenciosas sobre como responder a essa pergunta.

A IA pode ser tendenciosa apesar de não estar viva. Embora esses programas só possam "pensar" na medida em que os cérebros humanos descobrem como programá-los, seus criadores podem acabar incorporando preconceitos pessoais no software. Como alternativa, se treinado em um conjunto de dados com representação limitada ou tendenciosa, o produto final pode exibir vieses.

Para onde uma IA vai de lá pode ser problemático. Em grande escala, pode ajudar a perpetuar os preconceitos existentes em uma sociedade. Em um nível individual, tem o potencial de influenciar as pessoas por meio de persuasão latente, o que significa que a pessoa pode não estar ciente de que está sendo influenciada por sistemas automatizados. Já foi descoberto que a persuasão latente por programas de IA influencia as opiniões das pessoas online. Pode até ter um impacto no comportamento na vida real.

Depois de ver estudos anteriores que sugeriam que as respostas automatizadas da IA ​​podem ter uma influência significativa, Jakesch começou a investigar o quão extensa essa influência pode ser. Em um estudo recentemente apresentado na Conferência CHI de 2023 sobre Fatores Humanos em Sistemas de Computação, ele sugeriu que sistemas de IA como o GPT-3 podem ter desenvolvido vieses durante seu treinamento e que isso pode impactar as opiniões de um escritor, seja ou não o escritor percebe isso.

“A falta de consciência da influência dos modelos apóia a ideia de que a influência do modelo não foi apenas por meio do processamento consciente de novas informações, mas também por meio de processos subconscientes e intuitivos”, disse ele no estudo.

Pesquisas anteriores mostraram que a influência das recomendações de uma IA depende da percepção das pessoas sobre esse programa. Se eles acham que é confiável, é mais provável que aceitem o que sugere, e a probabilidade de seguir conselhos de IAs como esse só aumenta se a incerteza dificultar a formação de uma opinião. Jakesch desenvolveu uma plataforma de mídia social semelhante ao Reddit e um assistente de redação de IA que estava mais próximo da IA ​​por trás do Google Smart Compose ou do Microsoft Outlook do que da correção automática. Tanto o Smart Compose quanto o Outlook geram sugestões automáticas sobre como continuar ou completar uma frase. Embora esse assistente não tenha escrito a redação em si, ele atuou como co-autor que sugeria letras e frases. Aceitar uma sugestão exigia apenas um clique.

Para alguns, o assistente de IA foi criado para sugerir palavras que resultariam em respostas positivas. Para outros, foi tendencioso contra a mídia social e gerou respostas negativas. (Também havia um grupo de controle que não usava a IA.) Descobriu-se que qualquer um que recebesse ajuda da IA ​​tinha duas vezes mais chances de seguir o viés embutido na IA, mesmo que sua opinião inicial fosse diferente. As pessoas que continuaram vendo a linguagem tecno-otimista aparecer em suas telas eram mais propensas a dizer que a mídia social beneficia a sociedade, enquanto as pessoas que viam a linguagem tecno-pessimista eram mais propensas a argumentar o contrário.