論文の概要: Cognitive Decision Routing in Large Language Models: When to Think Fast, When to Think Slow
- arxiv url: http://arxiv.org/abs/2508.16636v1
- Date: Sun, 17 Aug 2025 01:07:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.068467
- Title: Cognitive Decision Routing in Large Language Models: When to Think Fast, When to Think Slow
- Title(参考訳): 大規模言語モデルにおける認知的決定のルーティング: いつ、いつ、いつ、ゆっくり考えるか
- Authors: Y. Du, C. Guo, W. Wang, G. Tang,
- Abstract要約: 大規模言語モデル(LLM)は、迅速で直感的な応答にいつ依存するか決定する上で、より遅く、より意図的な推論を行うという根本的な課題に直面します。
ダニエル・カーネマン(Daniel Kahneman)の二重プロセス理論と人間の認知バイアスに関する洞察に触発され、我々は新しい認知決定ルーティングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) face a fundamental challenge in deciding when to rely on rapid, intuitive responses versus engaging in slower, more deliberate reasoning. Inspired by Daniel Kahneman's dual-process theory and his insights on human cognitive biases, we propose a novel Cognitive Decision Routing (CDR) framework that dynamically determines the appropriate reasoning strategy based on query characteristics. Our approach addresses the current limitations where models either apply uniform reasoning depth or rely on computationally expensive methods for all queries. We introduce a meta-cognitive layer that analyzes query complexity through multiple dimensions: correlation strength between given information and required conclusions, domain boundary crossings, stakeholder multiplicity, and uncertainty levels. Through extensive experiments on diverse reasoning tasks, we demonstrate that CDR achieves superior performance while reducing computational costs by 34\% compared to uniform deep reasoning approaches. Our framework shows particular strength in professional judgment tasks, achieving 23\% improvement in consistency and 18\% better accuracy on expert-level evaluations. This work bridges cognitive science principles with practical AI system design, offering a principled approach to adaptive reasoning in LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、迅速で直感的な応答にいつ依存するか決定する上で、より遅く、より意図的な推論を行うという根本的な課題に直面します。
ダニエル・カーネマン(Daniel Kahneman)の二重プロセス理論と人間の認知バイアスに関する洞察に触発され、クエリ特性に基づいた適切な推論戦略を動的に決定する新しい認知決定ルーティング(Cognitive Decision Routing, CDR)フレームワークを提案する。
我々のアプローチは、モデルが一様推論深度を適用するか、あるいは全てのクエリに対して計算コストの高い方法に依存するという現在の制限に対処する。
メタ認知層を導入し,複数の次元を通して問合せの複雑さを解析する。与えられた情報と必要な結論との相関強度,ドメイン境界交差,利害関係者の乗算性,不確実性レベル。
多様な推論タスクに関する広範な実験を通じて、CDRは計算コストを均一な深い推論手法と比較して34倍に削減し、優れた性能を達成できることを実証した。
本フレームワークは, 専門的判断タスクにおいて特に強みを示し, 一貫性の23倍, 専門家レベルの評価では18倍の精度を実現している。
この研究は認知科学の原則を実践的なAIシステム設計に橋渡しし、LLMにおける適応推論に対する原則化されたアプローチを提供する。
関連論文リスト
- Fast, Slow, and Tool-augmented Thinking for LLMs: A Review [57.16858582049339]
大規模言語モデル (LLM) は、様々な領域における推論において顕著な進歩を示している。
実世界のタスクにおける効果的な推論は、問題の要求に推論戦略を適用する必要がある。
2つの知識境界に沿ったLSM推論戦略の新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-17T07:20:32Z) - PixelThink: Towards Efficient Chain-of-Pixel Reasoning [70.32510083790069]
PixelThinkは、外部から推定されるタスクの難しさと内部で測定されたモデルの不確実性を統合する、シンプルで効果的なスキームである。
シーンの複雑さと予測信頼度に応じて推論の長さを圧縮することを学ぶ。
実験により,提案手法は推論効率と全体セグメンテーション性能の両方を改善した。
論文 参考訳(メタデータ) (2025-05-29T17:55:49Z) - Two Experts Are All You Need for Steering Thinking: Reinforcing Cognitive Effort in MoE Reasoning Models Without Additional Training [86.70255651945602]
我々はReinforcecing Cognitive Experts(RICE)と呼ばれる新しい推論時ステアリング手法を導入する。
RICEは、追加のトレーニングや複雑化なしに推論のパフォーマンスを改善することを目的としている。
先行する MoE ベースの LRM を用いた経験的評価は、推論精度、認知効率、ドメイン間の一般化において顕著で一貫した改善を示す。
論文 参考訳(メタデータ) (2025-05-20T17:59:16Z) - Why Reasoning Matters? A Survey of Advancements in Multimodal Reasoning (v1) [66.51642638034822]
推論は人間の知性の中心であり、多様なタスクにまたがる構造化された問題解決を可能にする。
大規模言語モデル(LLM)の最近の進歩は、算術、常識、記号領域における推論能力を大幅に向上させてきた。
本稿では,テキストおよびマルチモーダルLLMにおける推論手法の簡潔かつ洞察に富んだ概要について述べる。
論文 参考訳(メタデータ) (2025-04-04T04:04:56Z) - From Chaos to Order: The Atomic Reasoner Framework for Fine-grained Reasoning in Large Language Models [46.02816479205161]
我々は,微粒な推論を可能にする認知推論戦略であるtextbfAtomic Reasoner(textbfAR)を提案する。
ARは推論プロセスを原子認知単位に分解し、認知的ルーティング機構を使用する。
結果より, 完全解探索の計算負担を伴わないARの優れた推論能力を示す。
論文 参考訳(メタデータ) (2025-03-20T08:34:53Z) - Meta-Reasoner: Dynamic Guidance for Optimized Inference-time Reasoning in Large Language Models [35.82665698868508]
大規模言語モデル(LLM)は、推論時間の間に高い計算時間とエラーの伝播に苦労する。
提案するMeta-Reasonerは,LLMが推論時間における推論方法の戦略を調整することで,推論計算を最適化するための新しいフレームワークである。
提案手法は,従来のSOTA法よりも9~12%向上し,推論時間を28~35%短縮する。
論文 参考訳(メタデータ) (2025-02-27T09:40:13Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。