論文の概要: Mind the (DH) Gap! A Contrast in Risky Choices Between Reasoning and Conversational LLMs
- arxiv url: http://arxiv.org/abs/2602.15173v1
- Date: Mon, 16 Feb 2026 20:24:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.898584
- Title: Mind the (DH) Gap! A Contrast in Risky Choices Between Reasoning and Conversational LLMs
- Title(参考訳): 思考する(DH)ギャップ! 推論と会話のLLMのリスク選択の対比
- Authors: Luise Ge, Yongyan Zhang, Yevgeniy Vorobeychik,
- Abstract要約: 本研究では,不確実性を考慮した意思決定における大規模言語モデルの利用について検討する。
推論モデル(RM)と会話モデル(CM)は2つのカテゴリに分類される。
RMは、合理的な行動に傾向があり、見通しの順序、利害関係、説明に敏感であり、また、見通しが明示的であるか、経験史を通して提示されているかについても同じように振る舞う。CMは、かなり合理的で、より人間らしく、見通しの順序、フレーミング、説明に敏感であり、大きな記述と歴史のギャップを示す。
- 参考スコア(独自算出の注目度): 22.917052751356763
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of large language models either as decision support systems, or in agentic workflows, is rapidly transforming the digital ecosystem. However, the understanding of LLM decision-making under uncertainty remains limited. We initiate a comparative study of LLM risky choices along two dimensions: (1) prospect representation (explicit vs. experience based) and (2) decision rationale (explanation). Our study, which involves 20 frontier and open LLMs, is complemented by a matched human subjects experiment, which provides one reference point, while an expected payoff maximizing rational agent model provides another. We find that LLMs cluster into two categories: reasoning models (RMs) and conversational models (CMs). RMs tend towards rational behavior, are insensitive to the order of prospects, gain/loss framing, and explanations, and behave similarly whether prospects are explicit or presented via experience history. CMs are significantly less rational, slightly more human-like, sensitive to prospect ordering, framing, and explanation, and exhibit a large description-history gap. Paired comparisons of open LLMs suggest that a key factor differentiating RMs and CMs is training for mathematical reasoning.
- Abstract(参考訳): 意思決定支援システムやエージェントワークフローとして、大規模な言語モデルを使用することは、デジタルエコシステムを急速に変革させています。
しかし、不確実性の下でのLLM意思決定の理解は依然として限られている。
本研究は,(1)先進表現(説明対経験ベース)と(2)意思決定合理性(説明)の2つの側面に沿って,LSMのリスク選択の比較研究を開始する。
20のフロンティアとオープン LLM を含む本研究は、一致した被験者実験によって補完され、1つの基準点を提供する一方、期待されるペイオフ最大化合理的エージェントモデルがもう1つの基準点を提供する。
LLMは推論モデル(RM)と会話モデル(CM)の2つのカテゴリに分類される。
RMは合理的な行動に傾向があり、見通しの順序、利得/利得フレーミング、説明に敏感であり、見通しが明示的であるか経験履歴を通して提示されているかで同じように振る舞う。
CMは、合理的で、もう少し人間らしく、予測順序、フレーミング、説明に敏感で、説明と歴史のギャップが大きい。
オープン LLM の比較では、RM と CM を区別する重要な要因は、数学的推論の訓練にあることが示唆されている。
関連論文リスト
- MIND: Multi-rationale INtegrated Discriminative Reasoning Framework for Multi-modal Large Models [15.860796863065737]
本稿では,多段階独立識別(MIND)推論フレームワークを提案する。
ヒューマンライクな認知能力を持つMLLMの「Understand -> Rethink -> Correct」を支援するように設計されている。
受動的模倣に基づく推論から活発な差別的推論へのパラダイム進化を達成する。
論文 参考訳(メタデータ) (2025-12-05T08:41:44Z) - Fast, Slow, and Tool-augmented Thinking for LLMs: A Review [57.16858582049339]
大規模言語モデル (LLM) は、様々な領域における推論において顕著な進歩を示している。
実世界のタスクにおける効果的な推論は、問題の要求に推論戦略を適用する必要がある。
2つの知識境界に沿ったLSM推論戦略の新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-17T07:20:32Z) - Alignment Revisited: Are Large Language Models Consistent in Stated and Revealed Preferences? [5.542420010310746]
批判的だが、未調査の問題は、LLMが明記した嗜好と明らかにした嗜好との潜在的な相違である。
この研究は正式に定義され、この選好偏差を測定する方法を提案する。
我々の研究は、LDMをサービス、特に人間と直接対話するサービスに統合するために不可欠です。
論文 参考訳(メタデータ) (2025-05-31T23:38:48Z) - LLMs are Greedy Agents: Effects of RL Fine-tuning on Decision-Making Abilities [21.42711537107199]
我々は,Large Language Models (LLMs) が意思決定シナリオにおいてサブ最適に機能する理由を考察する。
自己生成型CoT論理の強化学習(Reinforcement Learning, RL)による微調整によるこれらの欠点の緩和を提案する。
論文 参考訳(メタデータ) (2025-04-22T17:57:14Z) - Satori: Reinforcement Learning with Chain-of-Action-Thought Enhances LLM Reasoning via Autoregressive Search [57.28671084993782]
大規模言語モデル(LLM)は、様々な領域にまたがる顕著な推論能力を示している。
近年の研究では、テスト時間計算の増加はLLMの推論能力を高めることが示されている。
そこで我々は,1)COAT推論形式を内部化するための小規模な形式調整段階,2)強化学習を活用した大規模自己改善段階を提案する。
論文 参考訳(メタデータ) (2025-02-04T17:26:58Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - STEER: Assessing the Economic Rationality of Large Language Models [21.91812661475551]
LLMを意思決定「エージェント」として使うことへの関心が高まっている
LLMエージェントが信頼できるかどうかを決定するには、そのようなエージェントの経済的合理性を評価するための方法論が必要である。
論文 参考訳(メタデータ) (2024-02-14T20:05:26Z) - Sentiment Analysis through LLM Negotiations [58.67939611291001]
感情分析の標準的なパラダイムは、単一のLCMに依存して、その決定を1ラウンドで行うことである。
本稿では,感情分析のためのマルチLLMネゴシエーションフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-03T12:35:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。