論文の概要: Argumentative Experience: Reducing Confirmation Bias on Controversial Issues through LLM-Generated Multi-Persona Debates
- arxiv url: http://arxiv.org/abs/2412.04629v5
- Date: Mon, 15 Sep 2025 19:48:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.569948
- Title: Argumentative Experience: Reducing Confirmation Bias on Controversial Issues through LLM-Generated Multi-Persona Debates
- Title(参考訳): 論証的経験: LLMによるマルチ・ペソナ・ディベートによる論争問題における確証バイアスの低減
- Authors: Li Shi, Houjiang Liu, Yian Wong, Utkarsh Mujumdar, Dan Zhang, Jacek Gwizdka, Matthew Lease,
- Abstract要約: 大規模言語モデル(LLM)を利用した多人数討論システムでは,確認バイアスの低減が期待できる。
LLMに基づく多人数討論システムと2スタンス検索ベースのシステムを比較し、議論の的となっているトピックに対する複数の視点を参加者に提示する。
以上の結果から,議論システムは対立する視点への注意を著しく高めるものではないが,個人の認知傾向による偏見に対する緩衝効果が示唆された。
- 参考スコア(独自算出の注目度): 8.288230743741947
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Multi-persona debate systems powered by large language models (LLMs) show promise in reducing confirmation bias, which can fuel echo chambers and social polarization. However, empirical evidence remains limited on whether they meaningfully shift user attention toward belief-challenging content, promote belief change, or outperform traditional debiasing strategies. To investigate this, we compare an LLM-based multi-persona debate system with a two-stance retrieval-based system, exposing participants to multiple viewpoints on controversial topics. By collecting eye-tracking data, belief change measures, and qualitative feedback, our results show that while the debate system does not significantly increase attention to opposing views, or make participants shift away from prior beliefs, it does provide a buffering effect against bias caused by individual cognitive tendency. These findings shed light on both the promise and limits of multi-persona debate systems in information seeking, and we offer design insights to guide future work toward more balanced and reflective information engagement.
- Abstract(参考訳): 大規模言語モデル(LLM)を利用した多人数討論システムは、エコーチャンバーと社会的分極を燃料とする確証バイアスを減らすことを約束している。
しかし、ユーザの注意を信念に合うコンテンツに有意義にシフトさせるか、信念の変化を促進するか、あるいは従来の嫌悪戦略より優れているかは、実証的な証拠は依然として限られている。
そこで本研究では,LLMに基づく多人数討論システムと2段階検索システムを比較し,議論の的となっているトピックに対する参加者の視点を明らかにする。
視線追跡データ,信念変化尺度,質的フィードバックを収集することにより,議論システムは対立する見解への注意を著しく高めるものではないか,あるいは参加者を以前の信念から遠ざけるか,個人認知傾向による偏見に対する緩衝効果をもたらすことを示した。
これらの知見は、情報探索における多人数討論システムの約束と限界の両方に光を当て、我々は、よりバランスよく反射的な情報獲得に向けた今後の取り組みを導くデザインインサイトを提供する。
関連論文リスト
- Combating Multimodal LLM Hallucination via Bottom-Up Holistic Reasoning [151.4060202671114]
マルチモーダル大規模言語モデル(MLLM)は、視覚言語タスクを前進させる前例のない能力を示した。
本稿では,MLLMにおける幻覚に対処するためのボトムアップ推論フレームワークを提案する。
本フレームワークは、認識レベル情報と認知レベルコモンセンス知識を検証・統合することにより、視覚とテキストの両方の入力における潜在的な問題に体系的に対処する。
論文 参考訳(メタデータ) (2024-12-15T09:10:46Z) - Can Users Detect Biases or Factual Errors in Generated Responses in Conversational Information-Seeking? [13.790574266700006]
対話型情報検索システムにおける応答生成の限界について検討する。
本研究は,問合せ応答性の問題と応答不完全性の課題に対処する。
分析の結果,クエリ応答性よりも応答不完全性の検出が容易であることが判明した。
論文 参考訳(メタデータ) (2024-10-28T20:55:00Z) - Distance between Relevant Information Pieces Causes Bias in Long-Context LLMs [50.40165119718928]
LongPiBenchは、複数の関連する情報を含む位置バイアスを評価するために設計されたベンチマークである。
これらの実験によると、現在のほとんどのモデルは「中間の失われた」問題に対して堅牢であるが、関連する情報片の間隔に関する重大なバイアスが存在する。
論文 参考訳(メタデータ) (2024-10-18T17:41:19Z) - Cognitive Biases in Large Language Models for News Recommendation [68.90354828533535]
本稿では,認知バイアスが大規模言語モデル(LLM)に基づくニュースレコメンデータシステムに与える影響について検討する。
データ拡張、エンジニアリングと学習アルゴリズムの側面を通じて、これらのバイアスを軽減する戦略について議論する。
論文 参考訳(メタデータ) (2024-10-03T18:42:07Z) - Towards Detecting and Mitigating Cognitive Bias in Spoken Conversational Search [14.916529791823868]
本稿では,情報探索,心理学,認知科学,ウェアラブルセンサの知見をもとに,地域社会における新たな会話を促す。
実験的な設計と設定のためのマルチモーダル機器と手法を含むフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-21T03:50:32Z) - Rethinking the Evaluation of Dialogue Systems: Effects of User Feedback on Crowdworkers and LLMs [57.16442740983528]
アドホック検索では、評価は暗黙のフィードバックを含むユーザーの行動に大きく依存する。
アノテータの会話知覚におけるターン評価におけるユーザフィードバックの役割はほとんど研究されていない。
本稿では,タスク指向対話システム(TDS)の評価が,ターンのフォローアップ発話を通じて提供されるユーザフィードバック,明示的あるいは暗黙的な評価にどのように影響するかに注目した。
論文 参考訳(メタデータ) (2024-04-19T16:45:50Z) - Cognitive Bias in Decision-Making with LLMs [19.87475562475802]
大規模言語モデル(LLM)は、幅広い意思決定タスクをサポートするツールとして大きな可能性を秘めている。
LLMは保護されたグループに対する社会的バイアスを継承し、認知バイアスと機能的に類似している。
私たちの研究は、LLMの認知バイアスを発見し、評価し、緩和するために設計されたフレームワークであるBiasBusterを紹介します。
論文 参考訳(メタデータ) (2024-02-25T02:35:56Z) - LEMMA: Towards LVLM-Enhanced Multimodal Misinformation Detection with External Knowledge Augmentation [58.524237916836164]
外部知識を付加したLVLM強化マルチモーダル誤報検出システム LEMMAを提案する。
提案手法は,Twitter と Fakeddit のデータセットにおいて,上位ベースライン LVLM の精度を 7% と 13% に向上させる。
論文 参考訳(メタデータ) (2024-02-19T08:32:27Z) - Generative Echo Chamber? Effects of LLM-Powered Search Systems on
Diverse Information Seeking [49.02867094432589]
大規模言語モデル(LLM)を利用した対話型検索システムは、すでに数億人の人々が利用している。
評価バイアスのあるLCMが, ユーザの視点を補強したり, 異議を申し立てたりすることで, 効果が変化するか, どのように変化するかを検討する。
論文 参考訳(メタデータ) (2024-02-08T18:14:33Z) - Fostering User Engagement in the Critical Reflection of Arguments [3.26297440422721]
本研究では,人間との対話を行うシステムを提案する。
ユーザが既存の意見に集中しすぎれば,システムに介入することが可能になる。
58名の被験者を対象に,本モデルと介入機構の効果について調査を行った。
論文 参考訳(メタデータ) (2023-08-17T15:48:23Z) - Perspectives on Large Language Models for Relevance Judgment [56.935731584323996]
大型言語モデル(LLM)は、関連判断を支援することができると主張している。
自動判定が検索システムの評価に確実に利用できるかどうかは不明である。
論文 参考訳(メタデータ) (2023-04-13T13:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。