A experiência secreta de inteligência artificial (IA) da Universidade de Zurique (Zurich Uni) manipulou as opiniões dos usuários do Reddit.

robot
Geração do resumo em andamento

Fonte: Cointelegraph Texto original: "O experimento secreto de inteligência artificial (IA) da Universidade de Zurique (Zurich Uni) controlou as opiniões dos usuários do Reddit"

Pesquisadores da Universidade de Zurique foram acusados de realizar um experimento de quatro meses, sem autorização, em um fórum de discussão do Reddit, utilizando comentários gerados por IA para testar se a IA poderia mudar as opiniões das pessoas.

De acordo com uma postagem feita pelo moderador do sub-reddit r/changemyview em 26 de abril, durante o experimento, contas impulsionadas por IA disfarçaram-se de várias identidades, incluindo vítimas de violação, pessoas que se opõem a determinados movimentos sociais, bem como consultores de trauma especializados em casos de abuso.

"Nosso subreddit é um espaço claramente centrado no ser humano, e é um valor central se recusar resolutamente a esconder o uso da IA", disse o moderador. As pessoas não vêm aqui para discutir ideias com IA ou para serem cobaias. ”

De acordo com o rascunho do artigo de pesquisa, os pesquisadores usaram IA para gerar respostas e tentaram personalizar essas respostas com base no histórico anterior dos usuários no Reddit (como inclinações políticas, gênero, idade e raça).

Durante um experimento de quatro meses, as contas falsas de IA da Universidade de Zurique publicaram um total de 1.783 comentários e receberam 137 marcas de "delta" - um sinal usado pelos usuários do Reddit para indicar que suas opiniões sobre uma determinada questão foram persuadidas a mudar.

Os pesquisadores afirmaram em uma postagem publicada na subárea que todos os comentários são revisados manualmente antes da publicação, para garantir que estejam em conformidade com as diretrizes da comunidade e "minimizar o potencial de dano".

A equipe de pesquisa da Universidade de Zurique argumenta que os "potenciais benefícios superam amplamente os riscos" do estudo, uma vez que descobriram que os grandes modelos de linguagem (LLMs) utilizados nos experimentos possuem uma capacidade de persuasão extraordinária, superando os "padrões de persuasão humana conhecidos até agora."

"A pesquisa controlada e de baixo risco que conduzimos fornece informações valiosas sobre a capacidade dos LLMs de persuadir no mundo real – uma capacidade que agora está prontamente disponível para qualquer pessoa e que também pode ser explorada por atores mal-intencionados em grande escala para fins mais perigosos", disseram os pesquisadores. ”

Ao mesmo tempo, os pesquisadores também apontaram que este experimento mostra que "distinguir entre humanos e IA continua a ser um grande desafio", uma vez que, durante todo o experimento, os usuários do subfórum r/changemyview não identificaram o robô de IA.

Este subfórum tem 3,8 milhões de membros, posicionando-se no top 1% de todos os subfóruns do Reddit.

O Reddit está a considerar ações legais

Os moderadores do Reddit afirmaram que não estavam cientes do experimento com antecedência, pediram desculpas à Universidade de Zurique e solicitaram que a publicação dos resultados da pesquisa fosse impedida.

O Reddit também pode estar considerando tomar medidas legais. O diretor jurídico da plataforma, Ben Lee, afirmou em uma postagem de acompanhamento em 28 de abril que o experimento violou os termos de uso e as regras da plataforma do Reddit, e todas as contas conhecidas relacionadas à pesquisa da Universidade de Zurique foram banidas.

Lee afirmou: "Estamos a enviar uma carta legal formal à Universidade de Zurique e à equipa de pesquisa."

Ele acrescentou: "Faremos todo o possível para apoiar a comunidade e garantir que os investigadores em questão sejam responsabilizados pelos seus comportamentos inadequados."

O comitê de ética da Faculdade de Humanidades e Ciências Sociais da Universidade de Zurique afirmou que iniciou uma investigação sobre o incidente ao responder a este submódulo e prometeu uma melhor coordenação com os sujeitos da pesquisa no futuro. O investigador principal do projeto também recebeu um aviso formal.

O comitê de ética apontou: "Este projeto oferece insights importantes e o risco é extremamente baixo. Portanto, reprimir a publicação de seus resultados é desproporcional ao valor que a pesquisa traz."

A Universidade de Zurique ainda não respondeu imediatamente a isso. A Cointelegraph também não recebeu uma resposta às consultas enviadas para o e-mail relacionado ao experimento.

Artigos relacionados: Lançamento da versão russa da "stablecoin rublo": executivos detalham sete características funcionais que imitam o Tether (USDT)

Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate.io
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)