論文の概要: Internal Bias in Reasoning Models leads to Overthinking
- arxiv url: http://arxiv.org/abs/2505.16448v2
- Date: Tue, 27 May 2025 09:44:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 14:37:19.755514
- Title: Internal Bias in Reasoning Models leads to Overthinking
- Title(参考訳): 推論モデルの内部バイアスは再考につながる
- Authors: Renfei Dang, Shujian Huang, Jiajun Chen,
- Abstract要約: 推論モデルにおける過度な考えは、入力テキストに対する内部バイアスから生じる可能性があることを初めて示します。
元の入力部をマスクアウトすることで、内部バイアスの影響を効果的に緩和することができ、推論長を31%-53%削減することができる。
- 参考スコア(独自算出の注目度): 58.817405319722596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While current reasoning models possess strong exploratory capabilities, they are often criticized for overthinking due to redundant and unnecessary reflections. In this work, we reveal for the first time that overthinking in reasoning models may stem from their internal bias towards input texts. Upon encountering a reasoning problem, the model immediately forms a preliminary guess about the answer, which we term as an internal bias since it is not derived through actual reasoning. When this guess conflicts with its reasoning result, the model tends to engage in reflection, leading to the waste of computational resources. Through further interpretability experiments, we find that this behavior is largely driven by the model's excessive attention to the input section, which amplifies the influence of internal bias on its decision-making process. Additionally, by masking out the original input section, the affect of internal bias can be effectively alleviated and the reasoning length could be reduced by 31%-53% across different complex reasoning tasks. Notably, in most cases, this approach also leads to improvements in accuracy. These findings demonstrate a causal relationship between internal bias and overthinking.
- Abstract(参考訳): 現在の推論モデルは探索能力が強いが、冗長で不要な反射のために過度に考えるとしばしば批判される。
本研究は, 推論モデルにおける過度な考察が, 入力テキストに対する内部バイアスから生じる可能性があることを初めて明らかにする。
推論問題に遭遇すると、モデルがすぐにその解について予備的な推測をし、それが実際の推論によって導出されないため、内部バイアスと呼ばれる。
この推測がその推論結果と矛盾する場合、モデルはリフレクションに関与する傾向にあり、計算資源の浪費につながる。
さらなる解釈可能性実験を通じて、この振る舞いはモデルが入力部に過度に注意を払っていることによるものであり、内部バイアスが意思決定プロセスに与える影響を増幅する。
さらに、元の入力部をマスキングすることで、内部バイアスの影響を効果的に緩和することができ、複雑な推論タスクで推論の長さを31%-53%削減することができる。
特に、ほとんどの場合、このアプローチは精度の向上にもつながります。
これらの結果から,内的偏見と過度思考の因果関係が示唆された。
関連論文リスト
- To Think or Not To Think, That is The Question for Large Reasoning Models in Theory of Mind Tasks [56.11584171938381]
心の理論 (ToM) は、モデルが信念、欲望、意図などの隠された精神状態を推測できるかどうかを評価する。
近年のLRM(Large Reasoning Models)の進歩により、数学やコーディングにおけるステップバイステップ推論が向上している。
本研究では,9つの大規模言語モデル(LLM)の体系的研究を行い,推論モデルと非推論モデルを比較した。
論文 参考訳(メタデータ) (2026-02-11T08:16:13Z) - Beware of Reasoning Overconfidence: Pitfalls in the Reasoning Process for Multi-solution Tasks [54.31998314008198]
大きな言語モデル(LLM)は、単一の正しい答えを必要とするタスクの推論において優れているが、マルチソリューションタスクでは不十分である。
我々はこの制限を、不完全解集合における不完全確実性を表現する傾向という、不確実な過信(textbfreasoning overconfidence)に起因している。
この仮説は, 思考経路の狭いセットに早急に収束すると, 過信が生じることを示唆するものである。
論文 参考訳(メタデータ) (2025-12-01T14:35:06Z) - Investigating Thinking Behaviours of Reasoning-Based Language Models for Social Bias Mitigation [43.974424280422085]
社会的偏見凝集の背景にある思考過程のメカニズムを考察する。
社会的偏見の凝集を促進する2つの失敗パターンを発見しました。
我々のアプローチは、正確性を維持したり改善したりしながら、バイアスを効果的に軽減します。
論文 参考訳(メタデータ) (2025-10-20T00:33:44Z) - Reasoning or Retrieval? A Study of Answer Attribution on Large Reasoning Models [15.797612515648412]
大きな推論モデル (LRMs) は、Chain-of-Thought (CoT) 推論を通じて複雑な問題を解く際、前例のない能力を示す。
最近の研究では、彼らの最後の答えは、しばしば彼ら自身の推論の痕跡と矛盾していることが明らかになっている。
この矛盾は、CoT推論とメモリ検索という2つの競合メカニズムに起因していると仮定する。
本稿では,メモリアンラーニングと強化学習を統合したファインチューニングフレームワークFARLを紹介する。
論文 参考訳(メタデータ) (2025-09-29T01:13:33Z) - Leaky Thoughts: Large Reasoning Models Are Not Private Thinkers [36.044522516005884]
個人エージェントとして使用する大規模推論モデルの推論トレースにおいて,プライバシの漏洩について検討する。
推論トレースには、インプットインジェクションによって抽出したり、誤ってアウトプットにリークしたりできるセンシティブなユーザデータが頻繁に含まれていることを示す。
安全性の努力は、アウトプットだけでなく、モデルの内部的思考にも及ばなければならない、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-18T17:57:01Z) - How Well Can Reasoning Models Identify and Recover from Unhelpful Thoughts? [31.755709525282914]
本研究では,4種類の不愉快な思考から推論モデルがどのように識別し,回復するかを検討する。
モデルは、最も無害な思考を特定するのに効果的であるが、それらが思考プロセスに注入されると、同じ思考から回復することが困難であることを示す。
論文 参考訳(メタデータ) (2025-06-12T17:59:53Z) - Does Thinking More always Help? Understanding Test-Time Scaling in Reasoning Models [103.03315678501546]
Wait"や"Let me rethink"といったプロンプトを使って思考トレースを拡張することで、パフォーマンスが向上します。
テスト時にもっと考えることは、本当により良い推論につながるのでしょうか?
過度に考える”という理由から,新たな思考による初期パフォーマンス改善の一貫したパターンと,それに続く低下を示す。
論文 参考訳(メタデータ) (2025-06-04T17:55:09Z) - A Closer Look at Bias and Chain-of-Thought Faithfulness of Large (Vision) Language Models [53.18562650350898]
思考の連鎖(CoT)推論は、大きな言語モデルの性能を高める。
大規模視覚言語モデルにおけるCoT忠実度に関する最初の総合的研究について述べる。
論文 参考訳(メタデータ) (2025-05-29T18:55:05Z) - Revisiting Overthinking in Long Chain-of-Thought from the Perspective of Self-Doubt [74.35891434097053]
RLLM(Reasoning Large Language Models)は、複雑なタスクにおいて素晴らしいパフォーマンスを示す。
彼らはしばしば過度に考え、正しい答えに達した後も不必要な推論ステップを実行します。
本稿では,自己疑念の観点から,過剰思考を定量的に分析する。
本稿では,入力問題に対するモデルの過度信頼度を低減するための,シンプルで効果的なプロンプト手法を提案する。
論文 参考訳(メタデータ) (2025-05-29T14:30:02Z) - Reasoning Towards Fairness: Mitigating Bias in Language Models through Reasoning-Guided Fine-Tuning [12.559028963968247]
モデルの推論能力と公平性との関係について検討する。
より強力な推論能力を持つ大型モデルは、かなり低いステレオタイプバイアスを示す。
本稿では,先進的推論モデルから構造的推論トレースを抽出し,そのような能力を欠いたモデルに注入する手法であるReGiFTを紹介する。
論文 参考訳(メタデータ) (2025-04-08T03:21:51Z) - Causal Inference Isn't Special: Why It's Just Another Prediction Problem [1.90365714903665]
因果推論は予測モデリングとは異なるものとして描かれることが多い。
しかし、中核では、因果推論は単に分布シフトの下での予測の構造化例である。
この観点は因果推定をよく知られた一般化問題として再定義する。
論文 参考訳(メタデータ) (2025-04-06T01:37:50Z) - When Counterfactual Reasoning Fails: Chaos and Real-World Complexity [1.9223856107206057]
構造因果モデルの枠組みにおける反実的推論の限界について検討する。
低次モデル不確実性やカオス力学といった現実的な仮定は、直観に反する結果をもたらす。
この研究は、カオスと不確実性を特徴とする設定に反実的推論を適用する際に注意を促している。
論文 参考訳(メタデータ) (2025-03-31T08:14:51Z) - Implicit Bias-Like Patterns in Reasoning Models [0.5729426778193398]
暗黙のバイアス(英語: Implicit bias)とは、知覚、判断、行動を形成する自動的な精神過程を指す。
本稿では、推論モデルにおける暗黙的なバイアス様処理を研究するために、推論モデルインプシット・アソシエーション・テスト(RM-IAT)を提案する。
論文 参考訳(メタデータ) (2025-03-14T16:40:02Z) - The Danger of Overthinking: Examining the Reasoning-Action Dilemma in Agentic Tasks [96.27754404942364]
大規模推論モデル(LRM)は、AI問題解決能力の突破口となるが、インタラクティブ環境での有効性は制限される可能性がある。
本稿では, LRMにおける過度な考察を紹介し, 分析する。
解析的麻痺,ローグ行動,早期解離の3つのパターンを観察した。
論文 参考訳(メタデータ) (2025-02-12T09:23:26Z) - When Hindsight is Not 20/20: Testing Limits on Reflective Thinking in Large Language Models [15.781930031346105]
自己回帰はTrthfulQAのパフォーマンスを高めるが、HotpotQAの結果に悪影響を及ぼす。
自己回帰は、モデルが最初は正しくない可能性が低く、全体的な疑問の難しさが高い場合に最も有益であることが分かる。
そこで本研究では,自己回帰の実施時期を判断するためのガイドラインを提案する。
論文 参考訳(メタデータ) (2024-04-14T02:47:32Z) - Bias-Augmented Consistency Training Reduces Biased Reasoning in
Chain-of-Thought [34.99438001331234]
思考の連鎖は、モデルの振る舞いに影響を与える要因を誤って表現する。
バイアス強化された一貫性トレーニングは、モデルにバイアスのないプロンプト間で一貫した推論を与えるように訓練する。
BCTをGPT-3.5-Turboに1つのバイアスで適用することで、保留タスクにおいてバイアス付き推論の率を86%削減できる。
論文 参考訳(メタデータ) (2024-03-08T18:41:42Z) - Loose lips sink ships: Mitigating Length Bias in Reinforcement Learning
from Human Feedback [55.78118035358662]
人間のフィードバックからの強化学習は、大きな言語モデルと人間と社会的価値を整合させる重要な橋として機能する。
報酬モデルが意図した目的を回避できるショートカットを見つけることがよくあります。
本稿では、報酬モデリングとシーケンス長の影響を分離するために、Product-of-Experts技術を適用した革新的なソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-08T15:14:39Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。