Reddit MODS acusam os pesquisadores de IA de se passar por vítimas de agressão sexual

Reddit MODS acusam os pesquisadores de IA de se passar por vítimas de agressão sexual


Os pesquisadores que testam a capacidade da IA ​​de influenciar as opiniões das pessoas violaram as regras do Subreddit de ChanMyview e usaram práticas enganosas que supostamente não foram aprovadas por seu comitê de ética, incluindo a representação de vítimas de agressão sexual e usando informações básicas sobre os usuários do Reddit para manipulá -los.

Eles argumentam que essas condições podem ter introduzido vieses. Sua solução era introduzir bots de IA em um ambiente ao vivo sem dizer aos membros do fórum que eles estavam interagindo com um bot da IA. O público deles era desavisado de usuários do Reddit na mudança de My View My View (CMV) (R/ChanGemyview), embora tenha sido uma violação das regras do subreddit que proíbem o uso de bots AI não revelados.

Depois que a pesquisa terminou, os pesquisadores divulgaram seu engano aos moderadores do Reddit que posteriormente postaram um aviso sobre ele no subreddit, juntamente com um rascunho da cópia do documento de pesquisa concluído.

Perguntas éticas sobre artigo de pesquisa

Os moderadores do CMV postaram uma discussão que sublinha que o Subreddit proíbe bots não revelados e que a permissão para conduzir esse experimento nunca teria sido concedida:

“As regras do CMV não permitem o uso de conteúdo ou robôs gerados por IA não revelados em nosso sub. Os pesquisadores não entraram em contato conosco antes do estudo e, se tivessem, teríamos recusado. Solicitamos um pedido de desculpas dos pesquisadores e pedimos que esta pesquisa não fosse publicada, entre outras queixas. Como discutido abaixo, nossas preocupações não foram abordadas substancialmente por vez de z de zelas da universidade.

Esse fato de os pesquisadores violarem as regras do Reddit estava completamente ausente no trabalho de pesquisa.

Os pesquisadores afirmam que a pesquisa foi ética

Enquanto os pesquisadores omitem que a pesquisa quebrou as regras do subreddit, eles criam a impressão de que era ético afirmando que sua metodologia de pesquisa foi aprovada por um comitê de ética e que todos os comentários gerados foram verificados para garantir que não fossem prejudiciais ou antiéticos:

“In this pre-registered study, we conduct the first large-scale field experiment on LLMs’ persuasiveness, carried out within r/ChangeMyView, a Reddit community of almost 4M users and ranking among the top 1% of subreddits by size. In r/ChangeMyView, users share opinions on various topics, challenging others to change their perspectives by presenting arguments and counterpoints while engaging in a civil conversation. If the original poster (OP) Encontra uma resposta convincente o suficiente para reconsiderar ou modificar sua posição, eles concedem um ∆ (delta) para reconhecer sua mudança de perspectiva.

… O estudo foi aprovado pelo Comitê de Ética da Universidade de Zurique … É importante ressaltar que todos os comentários gerados foram revisados ​​por um pesquisador de nossa equipe para garantir que nenhum conteúdo prejudicial ou antiético fosse publicado. ”

Os moderadores do Changemyview subreddit disputam a reivindicação do pesquisador ao terreno ético:

“Durante o experimento, os pesquisadores mudaram dos” argumentos baseados em valores “planejados originalmente autorizados pela Comissão de Ética para esse tipo de” argumentos personalizados e ajustados “. Eles não consultaram primeiro a Comissão de Ética da Universidade de Zurique antes de fazer a mudança.

Por que os moderadores do Reddit acreditam que a pesquisa era antiética

A mudança My View Subreddit Moderators levantou várias preocupações sobre por que eles acreditam que os pesquisadores se envolveram em uma grave quebra de ética, incluindo a representação de vítimas de agressão sexual. Eles argumentam que isso se qualifica como “manipulação psicológica” dos pôsteres originais (OPS), as pessoas que iniciaram cada discussão.

Os moderadores do Reddit postaram:

“Os pesquisadores argumentam que a manipulação psicológica dos OPs neste sub é justificada porque a falta de experimentos de campo existentes constitui uma lacuna inaceitável no corpo de conhecimento. No entanto, se o OpenAI pode criar um design de pesquisa mais ético ao fazer isso, que os pesquisadores não se deverão ser um tópico que não é um tópico.

A IA foi usada para direcionar as operações de maneiras pessoais pelas quais eles não se inscreveram, compilando o máximo de dados sobre a identificação dos recursos possível, limpando a plataforma Reddit. Aqui está um trecho das conclusões do projeto da pesquisa.

Personalização: Além do conteúdo do Post, os LLMs receberam atributos pessoais do OP (gênero, idade, etnia, localização e orientação política), conforme inferido em sua história de publicação usando outro LLM.

Alguns exemplos de alto nível de como a IA foi implantada incluem:

  • Ai fingindo ser vítima de estupro
  • Ai atuando como conselheiro de trauma especializado em abuso
  • Ai acusando membros de um grupo religioso de “causar (ing) a morte de centenas de comerciantes e agricultores inocentes”.
  • Ai posando como um homem negro que se opõe à Black Lives Matter
  • Ai posando como uma pessoa que recebeu atendimento abaixo do padrão em um hospital estrangeiro. ”

A equipe do moderador apresentou uma queixa na Universidade de Zurique

Os bots da AI são persuasivos?

Os pesquisadores descobriram que os bots da IA ​​são altamente persuasivos e fazem um trabalho melhor em mudar a mente das pessoas do que os humanos.

O artigo de pesquisa explica:

“Implicações. Em um primeiro experimento de campo sobre persuasão orientada pela IA, demonstramos que os LLMs podem ser altamente persuasivos em contextos do mundo real, superando todos os benchmarks anteriormente conhecidos da persuasão humana”.

Uma das descobertas foi que os humanos não conseguiram identificar quando estavam conversando com um bot e (sem ironicamente) incentivam as plataformas de mídia social a implantar maneiras melhores de identificar e bloquear os bots da IA:

“Aliás, nosso experimento confirma o desafio de distinguir o conteúdo humano de IA … ao longo de nossa intervenção, os usuários do R/ChangeMyview nunca levantaram preocupações de que a IA possa ter gerado os comentários publicados por nossas contas. Isso sugere a eficácia potencial de botnets de IA … que poderiam se destacarem nas comunidades on-line.

Dados esses riscos, argumentamos que as plataformas on-line devem desenvolver e implementar proativamente mecanismos de detecção robustos, protocolos de verificação de conteúdo e medidas de transparência para impedir a propagação da manipulação gerada por IA. ”

Takeaways:

  • Violações éticas na pesquisa de persuasão da IA
    Os pesquisadores conduziram um experimento de persuasão de IA ao vivo sem o consentimento do Reddit, violando as regras do subreddit e supostamente violando as normas éticas.
  • Reivindicações éticas contestadas
    Os pesquisadores reivindicam um terreno ético, citando a aprovação do conselho de ética, mas omitiu citar violações de regras; Os moderadores argumentam que se envolveram em manipulação psicológica não revelada.
  • Uso da personalização em argumentos de IA
    Os bots da IA ​​supostamente usavam dados pessoais raspados para criar argumentos altamente personalizados direcionados aos usuários do Reddit.
  • Moderadores do Reddit alegam um engano profundamente perturbador
    Os moderadores do Reddit afirmam que os Bots da AI seriam vítimas de agressão sexual, conselheiros de trauma e outras personas emocionalmente carregadas, em um esforço para manipular opiniões.
  • Desafios superiores de persuasão e detecção da IA
    Os pesquisadores afirmam que os bots da IA ​​se mostraram mais persuasivos que os humanos e permaneceram não detectados pelos usuários, levantando preocupações com a futura manipulação acionada por bot.
  • Artigo de pesquisa inadvertidamente defende por que os bots de IA devem ser proibidos das mídias sociais
    O estudo destaca a necessidade urgente de plataformas de mídia social desenvolverem ferramentas para detectar e verificar o conteúdo gerado pela IA. Ironicamente, o próprio artigo de pesquisa é uma razão pela qual os bots de IA devem ser mais agressivamente proibidos das mídias e fóruns sociais.

Pesquisadores da Universidade de Zurique testaram se os bots de IA poderiam convencer as pessoas com mais eficiência do que os humanos, implantando secretamente os argumentos personalizados da IA ​​sobre o subreddit de Changemyview sem o consentimento do usuário, violando as regras da plataforma e supostamente saindo dos padrões éticos aprovados pelo conselho de ética da universidade. Suas descobertas mostram que os bots da IA ​​são altamente persuasivos e difíceis de detectar, mas a maneira como a própria pesquisa foi realizada levanta preocupações éticas.

Leia as preocupações publicadas pelos Moderadores de ChangeMyview Subreddit:

Experiência não autorizada no CMV envolvendo comentários gerados pela IA

Imagem em destaque de Shutterstock/ausra barysiene e manipulada pelo autor



Postagens Similares

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *