論文の概要: Critical or Compliant? The Double-Edged Sword of Reasoning in Chain-of-Thought Explanations
- arxiv url: http://arxiv.org/abs/2511.12001v2
- Date: Wed, 19 Nov 2025 05:49:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 13:41:21.089621
- Title: Critical or Compliant? The Double-Edged Sword of Reasoning in Chain-of-Thought Explanations
- Title(参考訳): 批判的・矛盾的か : 連鎖説明における二本刃の推論の剣
- Authors: Eunkyu Park, Wesley Hanwen Deng, Vasudha Varadarajan, Mingxi Yan, Gunhee Kim, Maarten Sap, Motahhare Eslami,
- Abstract要約: 系統的な推論連鎖の摂動とデリバリートーンの操作による道徳シナリオにおけるCoT(Chain-of-Thought)の説明の役割について検討した。
1) 利用者は, 根拠に欠陥がある場合でも, 信頼感を保ち, 結果合意を信頼する傾向がみられた。
これらの結果は、CoTの説明が同時に明確化と誤解を招き、視覚的信頼よりも精査と批判的思考を奨励する説明を提供するNLPシステムの必要性を強調している。
- 参考スコア(独自算出の注目度): 60.27156500679296
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explanations are often promoted as tools for transparency, but they can also foster confirmation bias; users may assume reasoning is correct whenever outputs appear acceptable. We study this double-edged role of Chain-of-Thought (CoT) explanations in multimodal moral scenarios by systematically perturbing reasoning chains and manipulating delivery tones. Specifically, we analyze reasoning errors in vision language models (VLMs) and how they impact user trust and the ability to detect errors. Our findings reveal two key effects: (1) users often equate trust with outcome agreement, sustaining reliance even when reasoning is flawed, and (2) the confident tone suppresses error detection while maintaining reliance, showing that delivery styles can override correctness. These results highlight how CoT explanations can simultaneously clarify and mislead, underscoring the need for NLP systems to provide explanations that encourage scrutiny and critical thinking rather than blind trust. All code will be released publicly.
- Abstract(参考訳): 説明はしばしば透明性のためのツールとして推奨されるが、確認バイアスを助長することも可能である。
マルチモーダルなモラルシナリオにおけるチェーン・オブ・ワット(CoT)の説明の二重エッジ的役割について,系統的に推論連鎖を摂動させ,納品トーンを操作することによって検討した。
具体的には、視覚言語モデル(VLM)における推論エラーと、それがユーザの信頼とエラーを検出する能力に与える影響を分析する。
以上の結果から,(1)利用者の信頼度は結果合意と同等であり,推論に欠陥がある場合でも信頼を保ち,(2)信頼感は信頼を維持しながら誤り検出を抑えることを示し,配信スタイルが正しさを上書きできることが示唆された。
これらの結果は、CoTの説明が同時に明確化と誤解を招き、視覚的信頼よりも精査と批判的思考を奨励する説明を提供するNLPシステムの必要性を強調している。
すべてのコードは公開されます。
関連論文リスト
- VeriCoT: Neuro-symbolic Chain-of-Thought Validation via Logical Consistency Checks [18.68532103004733]
本稿では,Chain-of-Thought推論から論理的論理論を抽出し,検証する,ニューロシンボリックな手法であるVeriCoTを紹介する。
ProofWriter、LegalBench、BioASQデータセットの実験は、VeriCoTが欠陥のある推論を効果的に識別していることを示している。
また,(1)推測時間自己回帰,(2)教師付き微調整(SFT),(3)選好微調整にVeriCoTの検証信号を利用する。
論文 参考訳(メタデータ) (2025-11-06T18:50:08Z) - Explanation-Driven Counterfactual Testing for Faithfulness in Vision-Language Model Explanations [0.8657627742603715]
視覚言語モデル(VLM)はしばしば、説得力があるが予測を導く因果的要因を反映しない、流動的な自然言語説明(NLE)を生成する。
この妥当性と忠実性のミスマッチは、技術的およびガバナンスのリスクを引き起こす。
本稿では,対象VLMの完全自動検証手法であるExplaination-Driven Counterfactual Testing (EDCT)を紹介する。
論文 参考訳(メタデータ) (2025-09-27T15:16:23Z) - ConfTuner: Training Large Language Models to Express Their Confidence Verbally [58.63318088243125]
大規模言語モデル(LLM)は、科学、法律、医療といった高度な領域にますます展開されている。
LLMは、しばしば「過信」(overconfidence)として知られる、高い信頼で誤った答えを生成するために観察される。
論文 参考訳(メタデータ) (2025-08-26T09:25:32Z) - Unveiling Confirmation Bias in Chain-of-Thought Reasoning [12.150655660758359]
大型言語モデル(LLM)の推論能力を高めるために、チェーン・オブ・シークレット(CoT)プロンプトが広く採用されている。
本研究は認知心理学におけるテキスト確認バイアスのレンズを通してCoTの行動を理解する新しい視点を示す。
論文 参考訳(メタデータ) (2025-06-14T01:30:17Z) - Information Bargaining: Bilateral Commitment in Bayesian Persuasion [60.3761154043329]
長期的説得のための統一的なフレームワークとよく構造化されたソリューションの概念を導入する。
この視点はゲーム構造の共通知識を明確にし、レシーバに匹敵するコミットメント能力を与える。
このフレームワークは、2段階の検証と推論のパラダイムによって検証される。
論文 参考訳(メタデータ) (2025-06-06T08:42:34Z) - Latent Veracity Inference for Identifying Errors in Stepwise Reasoning [78.29317733206643]
本稿では、精度割当てに対する離散探索アルゴリズムであるVeracity Search(VS)を紹介する。
その他の方法では、後続の精度値よりも後続の分布において難解な推論を行う。
VSを一般化し、新しいコンテキストで正確なゼロショットの精度推論を可能にする。
論文 参考訳(メタデータ) (2025-05-17T04:16:36Z) - Self-Contradictory Reasoning Evaluation and Detection [31.452161594896978]
本稿では,自己矛盾推論(Self-Contra)について考察する。
LLMは文脈情報理解や常識を含むタスクの推論において矛盾することが多い。
GPT-4は52.2%のF1スコアで自己コントラを検出できる。
論文 参考訳(メタデータ) (2023-11-16T06:22:17Z) - Language Models Don't Always Say What They Think: Unfaithful
Explanations in Chain-of-Thought Prompting [43.458726163197824]
大規模言語モデル(LLM)は、最終的な出力を与える前にステップバイステップの推論を生成することで、多くのタスクにおいて強力なパフォーマンスを達成することができる。
モデル予測の真の理由を,CoT の説明が体系的に誤って表現できることが判明した。
論文 参考訳(メタデータ) (2023-05-07T22:44:25Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。