論文の概要: Recognising, Anticipating, and Mitigating LLM Pollution of Online Behavioural Research
- arxiv url: http://arxiv.org/abs/2508.01390v1
- Date: Sat, 02 Aug 2025 14:40:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 20:32:48.702382
- Title: Recognising, Anticipating, and Mitigating LLM Pollution of Online Behavioural Research
- Title(参考訳): オンライン行動研究におけるLCM汚染の認識・予測・緩和
- Authors: Raluca Rilla, Tobias Werner, Hiromu Yakura, Iyad Rahwan, Anne-Marie Nussberger,
- Abstract要約: LLM汚染がオンライン行動研究を脅かす3つの相互作用型を同定する。
本稿では,研究者の実践,プラットフォームアカウンタビリティ,コミュニティ活動にまたがる多層応答を提案する。
- 参考スコア(独自算出の注目度): 20.76449931945918
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online behavioural research faces an emerging threat as participants increasingly turn to large language models (LLMs) for advice, translation, or task delegation: LLM Pollution. We identify three interacting variants through which LLM Pollution threatens the validity and integrity of online behavioural research. First, Partial LLM Mediation occurs when participants make selective use of LLMs for specific aspects of a task, such as translation or wording support, leading researchers to (mis)interpret LLM-shaped outputs as human ones. Second, Full LLM Delegation arises when agentic LLMs complete studies with little to no human oversight, undermining the central premise of human-subject research at a more foundational level. Third, LLM Spillover signifies human participants altering their behaviour as they begin to anticipate LLM presence in online studies, even when none are involved. While Partial Mediation and Full Delegation form a continuum of increasing automation, LLM Spillover reflects second-order reactivity effects. Together, these variants interact and generate cascading distortions that compromise sample authenticity, introduce biases that are difficult to detect post hoc, and ultimately undermine the epistemic grounding of online research on human cognition and behaviour. Crucially, the threat of LLM Pollution is already co-evolving with advances in generative AI, creating an escalating methodological arms race. To address this, we propose a multi-layered response spanning researcher practices, platform accountability, and community efforts. As the challenge evolves, coordinated adaptation will be essential to safeguard methodological integrity and preserve the validity of online behavioural research.
- Abstract(参考訳): オンライン行動研究は、参加者がアドバイス、翻訳、タスクデリゲートのために大きな言語モデル(LLM)に目を向けるにつれ、ますます脅威に直面している。
LLM汚染がオンライン行動研究の妥当性と完全性を脅かす3つの相互作用型を同定する。
第一に、部分的なLLMメディエーションは、参加者が翻訳や語学支援などのタスクの特定の側面にLLMを選択的に使用した場合に起こり、研究者はLLMの形をしたアウトプットを人間として解釈する(ミス)。
第2に、フルLLMデリゲーションは、エージェントLLMが人間の監視をほとんど、あるいは全く行わずに研究を完了したときに発生し、より基礎的なレベルでの人体研究の中心的前提を損なう。
第3に、LLM Spilloverは、オンライン研究においてLLMの存在を予想し始めたとき、たとえ誰も関与していないとしても、人間の行動を変えることを意味する。
部分的なメディエーションと完全なデリゲーションは、自動化の増大の連続体を形成するが、LLM Spilloverは2階の反応性効果を反映している。
これらの変異は相互作用し、サンプルの信頼性を損なうカスケード歪みを生成し、ポストホックを検出するのが難しいバイアスを導入し、最終的には人間の認知と行動に関するオンライン研究の疫学基盤を損なう。
重要なことに、LLM汚染の脅威はすでに、生成AIの進歩と共進化しており、方法論的な武器競争がエスカレートしている。
そこで本研究では,研究者の実践,プラットフォームアカウンタビリティ,コミュニティ活動にまたがる多層応答を提案する。
課題が発展するにつれて、コーディネートされた適応は、方法論的整合性の保護とオンライン行動研究の妥当性の維持に不可欠である。
関連論文リスト
- Get on the Train or be Left on the Station: Using LLMs for Software Engineering Research [11.38769375570817]
我々はSE研究コミュニティが研究実践への大規模言語モデルの統合に積極的に関与し、形成する必要があると論じる。
このポジションペーパーは、McLuhanのTetrad of Media Lawsを用いて、LLMがSE研究に与える影響を分析する。
論文 参考訳(メタデータ) (2025-06-15T02:25:50Z) - An Empirical Study of Group Conformity in Multi-Agent Systems [0.26999000177990923]
本研究では,Large Language Models (LLMs) が,5つの論点に関する議論を通じて世論を形成する方法について考察する。
2500以上の議論をシミュレートすることで、当初中立なエージェントが中心的な処分を課し、時間とともに特定のスタンスを採用するかを分析します。
論文 参考訳(メタデータ) (2025-06-02T05:22:29Z) - PSSD: Making Large Language Models Self-denial via Human Psyche Structure [5.057375783924452]
本稿では,3つの異なる役割が人間の推論に寄与するように,人間の精神構造を参照し,実装する。
大規模な実験では、提案された設計が推論能力を向上するだけでなく、現行のモデルとシームレスに統合できることが示されている。
論文 参考訳(メタデータ) (2025-02-03T13:37:21Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Beyond Binary: Towards Fine-Grained LLM-Generated Text Detection via Role Recognition and Involvement Measurement [51.601916604301685]
大規模言語モデル(LLM)は、オンライン談話における信頼を損なう可能性のあるコンテンツを生成する。
現在の手法はバイナリ分類に重点を置いており、人間とLLMのコラボレーションのような現実のシナリオの複雑さに対処できないことが多い。
バイナリ分類を超えてこれらの課題に対処するために,LLM生成コンテンツを検出するための新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2024-10-18T08:14:10Z) - Explaining Large Language Models Decisions Using Shapley Values [1.223779595809275]
大規模言語モデル(LLM)は、人間の行動や認知過程をシミュレートするエキサイティングな可能性を開いた。
しかし, LLMを人体用スタンドインとして活用する妥当性は, いまだに不明である。
本稿では,モデルの出力に対する各プロンプト成分の相対的寄与を定量化するために,シェープリー値に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T22:49:43Z) - The Wolf Within: Covert Injection of Malice into MLLM Societies via an MLLM Operative [55.08395463562242]
MLLM(Multimodal Large Language Models)は、AGI(Artificial General Intelligence)の新たな境界を常に定義している。
本稿では,MLLM社会において,悪意のあるコンテンツの間接的伝播という新たな脆弱性について検討する。
論文 参考訳(メタデータ) (2024-02-20T23:08:21Z) - Systematic Biases in LLM Simulations of Debates [12.933509143906141]
人間の相互作用をシミュレートする際の大規模言語モデルの限界について検討する。
以上の結果から, LLMエージェントがモデル固有の社会的バイアスに適合する傾向が示唆された。
これらの結果は、エージェントがこれらのバイアスを克服するのに役立つ方法を開発するためのさらなる研究の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-06T14:51:55Z) - Deception Abilities Emerged in Large Language Models [0.0]
大規模言語モデル(LLM)は、現在、人間のコミュニケーションと日常の生活を備えた人工知能(AI)システムの最前線にある。
本研究は, GPT-4 などの最先端 LLM にそのような戦略が出現したが, 初期の LLM には存在しなかったことを明らかにする。
我々は、最先端のLLMが他のエージェントの誤った信念を理解し、誘導できることを示す一連の実験を行う。
論文 参考訳(メタデータ) (2023-07-31T09:27:01Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z) - On the Risk of Misinformation Pollution with Large Language Models [127.1107824751703]
本稿では,現代大規模言語モデル (LLM) の誤用の可能性について検討する。
本研究は, LLMが効果的な誤情報発生器として機能し, DOQAシステムの性能が著しく低下することを明らかにする。
論文 参考訳(メタデータ) (2023-05-23T04:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。