論文の概要: Internal Bias in Reasoning Models leads to Overthinking
- arxiv url: http://arxiv.org/abs/2505.16448v1
- Date: Thu, 22 May 2025 09:35:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.1959
- Title: Internal Bias in Reasoning Models leads to Overthinking
- Title(参考訳): 推論モデルの内部バイアスは再考につながる
- Authors: Renfei Dang, Shujian Huang, Jiajun Chen,
- Abstract要約: 推論モデルにおける過度な考えは、入力テキストに対する内部バイアスから生じる可能性があることを初めて示します。
元の入力部をマスクアウトすることで、内部バイアスの影響を効果的に緩和することができ、推論長を31%-53%削減することができる。
- 参考スコア(独自算出の注目度): 58.817405319722596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While current reasoning models possess strong exploratory capabilities, they are often criticized for overthinking due to redundant and unnecessary reflections. In this work, we reveal for the first time that overthinking in reasoning models may stem from their internal bias towards input texts. Upon encountering a reasoning problem, the model immediately forms a preliminary guess about the answer, which we term as an internal bias since it is not derived through actual reasoning. When this guess conflicts with its reasoning result, the model tends to engage in reflection, leading to the waste of computational resources. Through further interpretability experiments, we find that this behavior is largely driven by the model's excessive attention to the input section, which amplifies the influence of internal bias on its decision-making process. Additionally, by masking out the original input section, the affect of internal bias can be effectively alleviated and the reasoning length could be reduced by 31%-53% across different complex reasoning tasks. Notably, in most cases, this approach also leads to improvements in accuracy. These findings demonstrate a causal relationship between internal bias and overthinking.
- Abstract(参考訳): 現在の推論モデルは探索能力が強いが、冗長で不要な反射のために過度に考えるとしばしば批判される。
本研究は, 推論モデルにおける過度な考察が, 入力テキストに対する内部バイアスから生じる可能性があることを初めて明らかにする。
推論問題に遭遇すると、モデルがすぐにその解について予備的な推測をし、それが実際の推論によって導出されないため、内部バイアスと呼ばれる。
この推測がその推論結果と矛盾する場合、モデルはリフレクションに関与する傾向にあり、計算資源の浪費につながる。
さらなる解釈可能性実験を通じて、この振る舞いはモデルが入力部に過度に注意を払っていることによるものであり、内部バイアスが意思決定プロセスに与える影響を増幅する。
さらに、元の入力部をマスキングすることで、内部バイアスの影響を効果的に緩和することができ、複雑な推論タスクで推論の長さを31%-53%削減することができる。
特に、ほとんどの場合、このアプローチは精度の向上にもつながります。
これらの結果から,内的偏見と過度思考の因果関係が示唆された。
関連論文リスト
- Reasoning Towards Fairness: Mitigating Bias in Language Models through Reasoning-Guided Fine-Tuning [12.559028963968247]
モデルの推論能力と公平性との関係について検討する。
より強力な推論能力を持つ大型モデルは、かなり低いステレオタイプバイアスを示す。
本稿では,先進的推論モデルから構造的推論トレースを抽出し,そのような能力を欠いたモデルに注入する手法であるReGiFTを紹介する。
論文 参考訳(メタデータ) (2025-04-08T03:21:51Z) - Causal Inference Isn't Special: Why It's Just Another Prediction Problem [1.90365714903665]
因果推論は予測モデリングとは異なるものとして描かれることが多い。
しかし、中核では、因果推論は単に分布シフトの下での予測の構造化例である。
この観点は因果推定をよく知られた一般化問題として再定義する。
論文 参考訳(メタデータ) (2025-04-06T01:37:50Z) - The Danger of Overthinking: Examining the Reasoning-Action Dilemma in Agentic Tasks [96.27754404942364]
大規模推論モデル(LRM)は、AI問題解決能力の突破口となるが、インタラクティブ環境での有効性は制限される可能性がある。
本稿では, LRMにおける過度な考察を紹介し, 分析する。
解析的麻痺,ローグ行動,早期解離の3つのパターンを観察した。
論文 参考訳(メタデータ) (2025-02-12T09:23:26Z) - When Hindsight is Not 20/20: Testing Limits on Reflective Thinking in Large Language Models [15.781930031346105]
自己回帰はTrthfulQAのパフォーマンスを高めるが、HotpotQAの結果に悪影響を及ぼす。
自己回帰は、モデルが最初は正しくない可能性が低く、全体的な疑問の難しさが高い場合に最も有益であることが分かる。
そこで本研究では,自己回帰の実施時期を判断するためのガイドラインを提案する。
論文 参考訳(メタデータ) (2024-04-14T02:47:32Z) - Bias-Augmented Consistency Training Reduces Biased Reasoning in
Chain-of-Thought [34.99438001331234]
思考の連鎖は、モデルの振る舞いに影響を与える要因を誤って表現する。
バイアス強化された一貫性トレーニングは、モデルにバイアスのないプロンプト間で一貫した推論を与えるように訓練する。
BCTをGPT-3.5-Turboに1つのバイアスで適用することで、保留タスクにおいてバイアス付き推論の率を86%削減できる。
論文 参考訳(メタデータ) (2024-03-08T18:41:42Z) - Loose lips sink ships: Mitigating Length Bias in Reinforcement Learning
from Human Feedback [55.78118035358662]
人間のフィードバックからの強化学習は、大きな言語モデルと人間と社会的価値を整合させる重要な橋として機能する。
報酬モデルが意図した目的を回避できるショートカットを見つけることがよくあります。
本稿では、報酬モデリングとシーケンス長の影響を分離するために、Product-of-Experts技術を適用した革新的なソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-08T15:14:39Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。