Europa quer que plataformas rotulem IA

blog

LarLar / blog / Europa quer que plataformas rotulem IA

May 23, 2023

Europa quer que plataformas rotulem IA

A União Europeia está apoiando-se nos signatários de seu Código de Conduta Online

A União Europeia está apoiando os signatários de seu Código de Prática sobre Desinformação Online para rotular deepfakes e outros conteúdos gerados por IA.

Em comentários ontem após uma reunião com os mais de 40 signatários do Código, a comissária de valores e transparência da UE, Vera Jourova, disse que aqueles que se inscreveram para combater a desinformação devem implementar tecnologia para reconhecer o conteúdo de IA e rotulá-lo claramente para os usuários.

"As novas tecnologias de IA podem ser uma força para o bem e oferecer novos caminhos para aumentar a eficiência e a expressão criativa. Mas, como sempre, temos que mencionar o lado negro desse assunto e elas também apresentam novos riscos e o potencial de consequências negativas para sociedade", alertou. "Também quando se trata da criação e disseminação de desinformação.

"Chatbots avançados, como o ChatGPT, são capazes de criar conteúdos e visuais complexos e aparentemente bem fundamentados em questão de segundos. Os geradores de imagem podem criar imagens autênticas de eventos que nunca ocorreram. O software de geração de voz pode imitar a voz de uma pessoa com base em uma amostra de alguns segundos. As novas tecnologias também trazem novos desafios para a luta contra a desinformação. Por isso, hoje pedi aos signatários que criassem uma faixa dedicada e separada dentro do código para discuti-la."

"Quando se trata de produção de IA, não vejo nenhum direito para as máquinas terem liberdade de expressão.

Os signatários do Código de Prática da UE contra a desinformação devem implementar tecnologia para reconhecer o conteúdo de IA e rotulá-lo claramente para os usuários."

— Vice-presidente @VeraJourova pic.twitter.com/yLVp79bqEH

— Comissão Europeia (@EU_Commission) 5 de junho de 2023

A versão atual do Código, que a UE reforçou no verão passado - quando também confirmou que pretende que o instrumento voluntário se torne uma medida de mitigação que conta para o cumprimento da Lei de Serviços Digitais (DSA) (juridicamente vinculativa) - atualmente não compromete para identificar e rotular deepfakes. Mas a Comissão espera mudar isso.

O comissário da UE disse que vê dois ângulos de discussão principais sobre como incluir medidas de mitigação para conteúdo gerado por IA no Código: um se concentraria em serviços que integram IA generativa, como o Novo Bing da Microsoft ou os serviços de pesquisa aumentada por IA Bard do Google - que deve comprometer-se a construir "as salvaguardas necessárias para que esses serviços não possam ser usados ​​por agentes mal-intencionados para gerar desinformação".

Um segundo comprometeria os signatários que têm serviços com potencial para disseminar desinformação gerada por IA a implementar "tecnologia para reconhecer tal conteúdo e rotulá-lo claramente para os usuários".

Jourova disse que conversou com Sundar Pichai, do Google, e foi informada de que o Google possui uma tecnologia que pode detectar conteúdo de texto gerado por IA, mas também que continua desenvolvendo a tecnologia para melhorar seus recursos.

Em comentários adicionais durante uma sessão de perguntas e respostas para a imprensa, a comissária disse que a UE deseja que os rótulos para deepfakes e outros conteúdos gerados por IA sejam claros e rápidos - para que os usuários normais possam entender imediatamente que um conteúdo que está sendo apresentado a eles foi criado por uma máquina, não por uma pessoa.

Ela também especificou que a Comissão deseja ver as plataformas implementando a rotulagem agora - "imediatamente".

O DSA inclui algumas disposições que exigem plataformas on-line muito grandes (VLOPs) para rotular áudio e imagens manipuladas, mas Jourova disse que a ideia de adicionar rotulagem ao código de desinformação é que isso pode acontecer antes do prazo de conformidade de 25 de agosto para VLOPs sob o DSA .

"Eu disse muitas vezes que temos como principal tarefa proteger a liberdade de expressão. Mas quando se trata da produção de IA, não vejo nenhum direito para as máquinas terem liberdade de expressão. E isso também está voltando para os velhos e bons pilares de nossa lei. E é por isso que queremos trabalhar mais nisso também sob o Código de Prática com base nessa ideia fundamental", acrescentou.