論文の概要: Reasoning aligns language models to human cognition
- arxiv url: http://arxiv.org/abs/2602.08693v1
- Date: Mon, 09 Feb 2026 14:13:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.273193
- Title: Reasoning aligns language models to human cognition
- Title(参考訳): 推論は言語モデルと人間の認知を一致させる
- Authors: Gonçalo Guiomar, Elia Torre, Pehuen Moure, Victoria Shavina, Mario Giulianelli, Shih-Chii Liu, Valerio Mante,
- Abstract要約: 我々は、サンプリング(積極的な証拠取得)と推論(意思決定への証拠の統合)をきれいに分離する活発な確率論的推論タスクを導入する。
人間と、近最適参照ポリシーに対する幅広い現代の大規模言語モデルをベンチマークすると、一貫したパターンが明らかになる。
このモデルは、人間とモデルを共有された低次元認知空間に配置し、エージェント間での行動シグネチャを再現し、チェーン・オブ・シントが言語モデルを人間のようなエビデンス・アソシエーション・ツー・チョイス・マッピングにどのようにシフトするかを示す。
- 参考スコア(独自算出の注目度): 12.07126784684808
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Do language models make decisions under uncertainty like humans do, and what role does chain-of-thought (CoT) reasoning play in the underlying decision process? We introduce an active probabilistic reasoning task that cleanly separates sampling (actively acquiring evidence) from inference (integrating evidence toward a decision). Benchmarking humans and a broad set of contemporary large language models against near-optimal reference policies reveals a consistent pattern: extended reasoning is the key determinant of strong performance, driving large gains in inference and producing belief trajectories that become strikingly human-like, while yielding only modest improvements in active sampling. To explain these differences, we fit a mechanistic model that captures systematic deviations from optimal behavior via four interpretable latent variables: memory, strategy, choice bias, and occlusion awareness. This model places humans and models in a shared low-dimensional cognitive space, reproduces behavioral signatures across agents, and shows how chain-of-thought shifts language models toward human-like regimes of evidence accumulation and belief-to-choice mapping, tightening alignment in inference while leaving a persistent gap in information acquisition.
- Abstract(参考訳): 言語モデルは、人間のように不確実性の下で意思決定を行い、根底にある意思決定プロセスにおいてチェーン・オブ・シント(CoT)推論が果たす役割は何か?
本稿では,サンプリング(積極的な証拠取得)と推論(意思決定への証拠の統合)をきれいに分離する能動的確率論的推論タスクを導入する。
拡張推論は強いパフォーマンスの鍵となる決定要因であり、推論において大きな利得を導き、人間らしくなった信念の軌跡を生み出すと同時に、アクティブサンプリングにおいてわずかに改善されている。
これらの違いを説明するために、我々は、メモリ、戦略、選択バイアス、オクルージョン認知という4つの解釈可能な潜伏変数を通して、最適行動から体系的な逸脱を捉えるメカニスティックモデルに適合する。
このモデルは、人間とモデルを共有された低次元認知空間に配置し、エージェント間での行動シグネチャを再現し、チェーン・オブ・シンドレントが言語モデルを、情報取得における永続的なギャップを保ちつつ、推論におけるアライメントの強化、証拠蓄積と信念-選択マッピングの人間のような体制へと移行する様子を示す。
関連論文リスト
- Reasoning Models Generate Societies of Thought [9.112083442162671]
マルチエージェントのような相互作用をシミュレートすることで、推論が強化されることが示される。
DeepSeek-R1 や QwQ-32B のような推論モデルは、命令調整モデルよりもはるかに視点の多様性を示す。
論文 参考訳(メタデータ) (2026-01-15T19:52:33Z) - Analyzing Reasoning Consistency in Large Multimodal Models under Cross-Modal Conflicts [74.47786985522762]
テキスト慣性(textual inertia)と呼ばれる重要な障害モードを特定し、矛盾する視覚的証拠を無視しながら、モデルは間違ったテキストに盲目的に固執する傾向がある。
本稿では,多種多様なLMMの推論連鎖に摂動を構造的に注入するLogicGraph摂動プロトコルを提案する。
その結果,10%未満の症例で自己修正が成功し,主に視覚的テキスト誤りの伝播に寄与することが判明した。
論文 参考訳(メタデータ) (2026-01-07T16:39:34Z) - Forgetting as a Feature: Cognitive Alignment of Large Language Models [39.146761527401424]
本研究では,Large Language Models (LLM) が過去の情報を体系的に忘れていることを示す。
人間の記憶力学からインスピレーションを得て,LLM推論を指数的崩壊によって支配される確率的記憶過程としてモデル化する。
これらの観測に基づいて,人間のような記憶崩壊を模倣するエビデンス統合を形作る軽量な戦略である確率的記憶促進法を提案する。
論文 参考訳(メタデータ) (2025-12-28T10:43:00Z) - Variational Reasoning for Language Models [93.08197299751197]
本稿では,思考トレースを潜在変数として扱う言語モデルのための変分推論フレームワークを提案する。
GRPOを含むリジェクションサンプリングとバイナリリワードRLは局所的なフォワードKLの目的と解釈できることを示す。
論文 参考訳(メタデータ) (2025-09-26T17:58:10Z) - Extended Inductive Reasoning for Personalized Preference Inference from Behavioral Signals [45.019257216564036]
本稿では,大規模言語モデル(LLM)の拡張帰納的推論について検討する。
本稿では,ユーザのインタラクション履歴の行動信号から体系的な選好推定を可能にするモデルであるAlignXploreを提案する。
我々は、AlignXploreが、ドメイン内およびドメイン外のベンチマークで平均15.49%、バックボーンモデルよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2025-05-23T16:16:46Z) - Internal Causal Mechanisms Robustly Predict Language Model Out-of-Distribution Behaviors [61.92704516732144]
正当性予測の最も堅牢な特徴は、モデルの振舞いに特徴的な因果的役割を果たすものであることを示す。
モデル出力の正しさを予測するために因果メカニズムを利用する2つの手法を提案する。
論文 参考訳(メタデータ) (2025-05-17T00:31:39Z) - Reasoning Capabilities of Large Language Models on Dynamic Tasks [0.017476232824732776]
大規模言語モデルは静的なベンチマークでは優れているが、動的環境における自己学習エージェントとしての能力は依然として不明である。
オープンソースモデルを用いた動的タスクにおける自己回帰、突然変異、計画という3つのプロンプト戦略を評価した。
より大きなモデルは一般的により小さなモデルよりも優れていますが、戦略的なプロンプトはこのパフォーマンスギャップを埋めることができます。
論文 参考訳(メタデータ) (2025-05-15T17:53:47Z) - Conceptual and Unbiased Reasoning in Language Models [98.90677711523645]
本稿では,抽象的質問に対する概念的推論をモデルに強制する,新しい概念化フレームワークを提案する。
既存の大規模言語モデルは概念的推論では不足しており、様々なベンチマークでは9%から28%に低下している。
ハイレベルな抽象的推論が不偏で一般化可能な意思決定の鍵となるので、モデルがどのように改善できるかについて議論する。
論文 参考訳(メタデータ) (2024-03-30T00:53:53Z) - Interpreting Language Models with Contrastive Explanations [99.7035899290924]
言語モデルは、音声、数字、時制、意味論など、トークンを予測するための様々な特徴を考慮しなければならない。
既存の説明手法は、これらの特徴の証拠を1つの説明に分割するが、人間の理解には理解できない。
比較的な説明は、主要な文法現象の検証において、非対照的な説明よりも定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-02-21T18:32:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。