論文の概要: Dual Traits in Probabilistic Reasoning of Large Language Models
- arxiv url: http://arxiv.org/abs/2412.11009v1
- Date: Sun, 15 Dec 2024 01:33:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 14:03:03.515905
- Title: Dual Traits in Probabilistic Reasoning of Large Language Models
- Title(参考訳): 大規模言語モデルの確率論的推論における双極性
- Authors: Shenxiong Li, Huaxia Rui,
- Abstract要約: 大規模言語モデルによる後部確率の評価について検討する。
以上の結果から, 最先端モデル間での2つの評価モードの共存が明らかとなった。
二重モードの判断は、人間からのフィードバックから強化学習に使用される対照的な損失関数の結果である可能性があると推測する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We conducted three experiments to investigate how large language models (LLMs) evaluate posterior probabilities. Our results reveal the coexistence of two modes in posterior judgment among state-of-the-art models: a normative mode, which adheres to Bayes' rule, and a representative-based mode, which relies on similarity -- paralleling human System 1 and System 2 thinking. Additionally, we observed that LLMs struggle to recall base rate information from their memory, and developing prompt engineering strategies to mitigate representative-based judgment may be challenging. We further conjecture that the dual modes of judgment may be a result of the contrastive loss function employed in reinforcement learning from human feedback. Our findings underscore the potential direction for reducing cognitive biases in LLMs and the necessity for cautious deployment of LLMs in critical areas.
- Abstract(参考訳): 我々は,大言語モデル (LLM) が後部確率を評価するための3つの実験を行った。
本研究は, ベイズの規則に従属する規範的モードと, 類似性に依存する代表的モードと, 人間のシステム1とシステム2の思考の並列性を示す。
さらに,LLMはメモリからベースレート情報を思い出すのに苦労し,代表者による判断を緩和するための迅速なエンジニアリング戦略を開発することは困難である可能性が示唆された。
さらに,2重モードの判断は,人間からのフィードバックから強化学習に使用される対照的な損失関数の結果である可能性が示唆された。
以上の結果から,LLMの認知バイアス軽減の方向性と,重要な領域におけるLCMの慎重な展開の必要性が示唆された。
関連論文リスト
- Estimating Commonsense Plausibility through Semantic Shifts [66.06254418551737]
セマンティックシフトを測定することでコモンセンスの妥当性を定量化する新しい識別フレームワークであるComPaSSを提案する。
2種類の細粒度コモンセンス可視性評価タスクの評価は,ComPaSSが一貫してベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2025-02-19T06:31:06Z) - What Makes In-context Learning Effective for Mathematical Reasoning: A Theoretical Analysis [81.15503859645149]
本稿では,大規模言語モデルの推論性能に及ぼす文脈内実演の影響を理論的に解析することを目的とする。
本稿では, LMS3 という, 単純で一般化可能な, 低複雑さな実演選択法を提案する。
論文 参考訳(メタデータ) (2024-12-11T11:38:11Z) - AI-Driven Day-to-Day Route Choice [15.934133434324755]
LLMTravelerは過去の経験から学び、検索したデータと性格特性のバランスをとることで意思決定を行うエージェントである。
本稿では,LLMTravelerが日常の混雑ゲーム2段階を通じて人間的な意思決定を再現する能力について,体系的に評価する。
この能力は、旅行者の新しいポリシーに対する反応やネットワークの変更をシミュレートするなど、交通政策立案に有用な洞察を提供する。
論文 参考訳(メタデータ) (2024-12-04T14:13:38Z) - Behavioral Bias of Vision-Language Models: A Behavioral Finance View [1.7205106391379021]
本稿では,LVLM(Large Vision-Language Models)の行動バイアスについて,行動金融の観点から検討する。
評価の結果,LLaVA-NeXT,MobileVLM-V2,Mini-Gemini,Mini-Llama3-V 2.5,Phi-3-vision-128kといったオープンソースのLVLMは,これらの2つのバイアスに大きく影響していることがわかった。
私たちの観察では、オープンソースモデルの改善の方向性を強調しています。
論文 参考訳(メタデータ) (2024-09-23T17:54:47Z) - Making Large Language Models Better Planners with Reasoning-Decision Alignment [70.5381163219608]
マルチモーダリティ強化LLMに基づくエンドツーエンド意思決定モデルを提案する。
ペア化されたCoTと計画結果との推論・決定アライメントの制約を提案する。
提案する大規模言語プランナをRDA-Driverとして推論・決定アライメントする。
論文 参考訳(メタデータ) (2024-08-25T16:43:47Z) - Predicting and Understanding Human Action Decisions: Insights from Large Language Models and Cognitive Instance-Based Learning [0.0]
大きな言語モデル(LLM)は、様々なタスクにまたがってその能力を実証している。
本稿では,LLMの推論と生成能力を利用して,2つの逐次意思決定タスクにおける人間の行動を予測する。
我々は,LLMの性能を,人間の経験的意思決定を模倣した認知的インスタンスベース学習モデルと比較した。
論文 参考訳(メタデータ) (2024-07-12T14:13:06Z) - Learning to Refine with Fine-Grained Natural Language Feedback [81.70313509881315]
我々は,3つの異なるLLM能力の構成要素として,フィードバックによる洗練を検討することを提案する。
提案手法の鍵となる特性は,ステップ2の批判モデルがエラーに対してきめ細かいフィードバックを与えることができる点である。
文書基盤要約の事実整合性を改善する作業において,異なる機能モデルがDCRによる精細化の恩恵を受けることを示す。
論文 参考訳(メタデータ) (2024-07-02T16:15:01Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。