
研究者チームは、Reddit の最も人気のあるコミュニティの 1 つで数か月間秘密裏に「無許可の」実験を行い、AI 生成のコメントを使用して大規模言語モデルの説得力をテストしました。この実験は、r/changemyview のモデレーターによって週末に明らかにされ、Reddit のモデレーターはこれを、何も知らないユーザーに対する「心理的操作」と表現した。
「CMVモデレーターチームは、チューリッヒ大学の研究者らがCMVユーザーに対して行っている無許可の実験についてCMVコミュニティに知らせる必要がある」と、サブレディットのモデレーターは、Redditユーザーにこの研究について知らせる長文の投稿に書いた。 「この実験では、AIが生成したレビューを展開し、AIをどのように活用して認識を変えることができるかを研究しました。」
研究者たちは、LLM を使用して、Reddit ユーザーが (多くの場合、物議を醸す、または挑発的な) 意見を投稿し、他のユーザーにその意見について議論を挑むサブレディットである r/changemyview の投稿に応答するコメントを作成しました。このコミュニティには 380 万人のメンバーがおり、Reddit のトップページに頻繁に登場します。サブレディットのモデレーターによると、実験中、AIはコメント欄で性的暴行の被害者や、「虐待を専門とする」トラウマカウンセラー、そして「ブラック・ライブズ・マターに反対する黒人」など、さまざまなアイデンティティを演じたという。元のコメントの多くは削除されていますが、404 Media によって作成されたアーカイブでは一部はまだ閲覧可能です。
論文の草稿の中で、匿名の研究者らは、AIを使って返信を生成するだけでなく、元の投稿者の過去のReddit履歴から収集した情報に基づいて返信をパーソナライズしようとした方法についても説明している。 「投稿内容に加えて、LLMは別のLLMへの投稿履歴から推測される投稿者の個人属性(性別、年齢、人種、居住地、政治的志向)も入手した」と彼らは書いている。
r/chnagemyview のモデレーターは、研究者らが、コメント生成に AI が使用される場合に情報開示を要求するポリシーやボットを禁止する規則など、複数のサブレディット規則に違反したと指摘した。彼らはチューリッヒ大学に正式な苦情を申し立て、研究者らに論文の発表を控えるよう要請したと述べた。
Reddit も何らかの法的措置を検討しているようだ。最高法務責任者のベン・リー氏は月曜日、この論争に反応し、研究者の行動は「倫理的にも法的にも大きな間違い」であり、レディットのサイト全体のルールに違反していると述べた。
チューリッヒ大学の研究者らは、Engadgetに対しメールで大学のメディア関係部門に問い合わせるよう指示したが、同部門は質問にすぐには返答しなかった。研究者らは、レディットへの投稿と論文草稿の中で、自分たちの研究が大学の倫理委員会によって承認されており、自分たちの研究がレディットのようなオンラインコミュニティーがユーザーをより「悪意のある」AIの使用から守るのに役立つ可能性があると述べた。
「この研究は皆さんのコミュニティへの歓迎されない侵入であるというモデレーターの立場を私たちは認識しています。また、この実験が事前の同意なしに行われたことに不快感を覚える方もいるだろうことも理解しています」と研究者たちはr/changemyviewのモデレーターへのコメントに書いた。この研究の潜在的なメリットは、リスクをはるかに上回ると考えています。この管理された、リスクの少ない研究は、現実世界における法学修士(LLM)の説得力に関する貴重な知見を提供します。法学修士(LLM)は誰でも簡単にアクセスでき、悪意のある人物が選挙操作やヘイトスピーチの助長など、より邪悪な目的のために既に大規模に悪用できる力です。
r/changemyviewのモデレーターは、この研究の必要性や新規性について異議を唱え、OpenAIの研究者らはr/changemyviewのデータを使用して実験を実施し、「同意のない被験者に対して実験を実施していない」と指摘した。
「人々は意見を議論したりAIを使った実験をしたりするためにここに来るのではない」とモデレーターは書いた。 「私たちの潜水艦を訪れる人々は、このような侵害を受けない空間に値する。」