論文の概要: DecisionFlow: Advancing Large Language Model as Principled Decision Maker
- arxiv url: http://arxiv.org/abs/2505.21397v1
- Date: Tue, 27 May 2025 16:23:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.799192
- Title: DecisionFlow: Advancing Large Language Model as Principled Decision Maker
- Title(参考訳): DecisionFlow: 原則的意思決定者としての大規模言語モデルの強化
- Authors: Xiusi Chen, Shanyong Wang, Cheng Qian, Hongru Wang, Peixuan Han, Heng Ji,
- Abstract要約: DecisionFlowは、モデルにアクション、属性、制約の構造化された表現を推論するように誘導する、新しい決定モデリングフレームワークである。
プロンプトから直接回答を予測するのではなく、DecisionFlowは意味論的に根拠のある決定空間を構築し、潜在ユーティリティ関数を推論する。
実験の結果,DecisionFlowの精度は,強いプロンプトベースラインよりも最大30%向上した。
- 参考スコア(独自算出の注目度): 48.654276010223384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In high-stakes domains such as healthcare and finance, effective decision-making demands not just accurate outcomes but transparent and explainable reasoning. However, current language models often lack the structured deliberation needed for such tasks, instead generating decisions and justifications in a disconnected, post-hoc manner. To address this, we propose DecisionFlow, a novel decision modeling framework that guides models to reason over structured representations of actions, attributes, and constraints. Rather than predicting answers directly from prompts, DecisionFlow builds a semantically grounded decision space and infers a latent utility function to evaluate trade-offs in a transparent, utility-driven manner. This process produces decisions tightly coupled with interpretable rationales reflecting the model's reasoning. Empirical results on two high-stakes benchmarks show that DecisionFlow not only achieves up to 30% accuracy gains over strong prompting baselines but also enhances alignment in outcomes. Our work is a critical step toward integrating symbolic reasoning with LLMs, enabling more accountable, explainable, and reliable LLM decision support systems. We release the data and code at https://github.com/xiusic/DecisionFlow.
- Abstract(参考訳): 医療や金融といった高度な分野において、効果的な意思決定の要求は正確な結果だけでなく、透明性と説明可能な推論にも及んでいる。
しかし、現在の言語モデルはそのようなタスクに必要な構造化された熟考を欠くことが多く、代わりに決定と正当化を非連結でポストホックな方法で生成する。
これを解決するために、我々はモデルにアクション、属性、制約の構造化表現を推論するように誘導する新しい決定モデリングフレームワークであるDecisionFlowを提案する。
プロンプトから直接回答を予測するのではなく、DecisionFlowは意味論的に根拠のある決定空間を構築し、透過的でユーティリティ駆動の方法でトレードオフを評価するための潜在ユーティリティ機能を推論する。
このプロセスは、モデルの推論を反映した解釈可能な論理と密結合した決定を生成する。
2つのハイテイクベンチマークの実証的な結果から、DecisionFlowは、ベースラインを強く推し進めるだけでなく、結果の整合性も向上する。
我々の研究は、LLMとシンボリック推論を統合するための重要なステップであり、より説明可能な、信頼性の高いLCM意思決定支援システムを可能にします。
データとコードはhttps://github.com/xiusic/DecisionFlow.orgで公開しています。
関連論文リスト
- Reasoning-Based AI for Startup Evaluation (R.A.I.S.E.): A Memory-Augmented, Multi-Step Decision Framework [0.0]
本稿では,意思決定ツリーの解釈可能性と大規模言語モデル(LLM)の高度な推論能力のギャップを埋めて,スタートアップの成功を予測する新しいフレームワークを提案する。
我々の手法はチェーン・オブ・ソート・プロンプトを利用して詳細な推論ログを生成し、その後、構造化された人間の理解可能な論理ルールに蒸留する。
我々の手法は、従来の意思決定プロセスを強化するだけでなく、専門家の介入や継続的な政策改善を促進する。
論文 参考訳(メタデータ) (2025-04-16T13:53:42Z) - Disentangling Memory and Reasoning Ability in Large Language Models [97.26827060106581]
本稿では、複雑な推論プロセスを2つの異なる明確なアクションに分解する新しい推論パラダイムを提案する。
実験の結果, この分解によりモデル性能が向上し, 推論プロセスの解釈可能性も向上することがわかった。
論文 参考訳(メタデータ) (2024-11-20T17:55:38Z) - STRUX: An LLM for Decision-Making with Structured Explanations [17.518955158367305]
STRUXと呼ばれる新しいフレームワークを導入し、構造化された説明を提供することでLCMの意思決定を強化する。
STRUXは、キーファクトの簡潔なテーブルに長い情報を蒸留することから始まる。
次に、これらの事実のどれが重要かを決定するために一連の自己回帰ステップを使用し、特定の決定に関して、それらが好ましいか悪いかのどちらかに分類する。
論文 参考訳(メタデータ) (2024-10-16T14:01:22Z) - Making Large Language Models Better Planners with Reasoning-Decision Alignment [70.5381163219608]
マルチモーダリティ強化LLMに基づくエンドツーエンド意思決定モデルを提案する。
ペア化されたCoTと計画結果との推論・決定アライメントの制約を提案する。
提案する大規模言語プランナをRDA-Driverとして推論・決定アライメントする。
論文 参考訳(メタデータ) (2024-08-25T16:43:47Z) - DeLLMa: Decision Making Under Uncertainty with Large Language Models [31.77731889916652]
DeLLMaは不確実な環境での意思決定の精度を高めるために設計されたフレームワークである。
DeLLMaは主要な言語モデルの意思決定性能を継続的に向上し、競合する手法に比べて最大40%の精度向上を達成できることを示す。
論文 参考訳(メタデータ) (2024-02-04T08:11:45Z) - Efficient Non-Parametric Uncertainty Quantification for Black-Box Large
Language Models and Decision Planning [17.752461521448236]
本稿では,不確実性を考慮した意思決定計画に焦点をあて,言語モデルにおける問題に対処する。
我々の不確実性評価と意思決定エージェント設計は、AIエージェント開発にコスト効率のよいアプローチを提供する。
論文 参考訳(メタデータ) (2024-02-01T00:23:31Z) - Modeling Boundedly Rational Agents with Latent Inference Budgets [56.24971011281947]
エージェントの計算制約を明示的にモデル化する潜在推論予算モデル(L-IBM)を導入する。
L-IBMは、最適なアクターの多様な集団のデータを使ってエージェントモデルを学ぶことができる。
我々は,L-IBMが不確実性の下での意思決定のボルツマンモデルに適合しているか,あるいは上回っていることを示す。
論文 参考訳(メタデータ) (2023-12-07T03:55:51Z) - An exact counterfactual-example-based approach to tree-ensemble models
interpretability [0.0]
高性能モデルは、決定を完全に理解するために必要な透明性を示さない。
多次元間隔の集まりの形で、決定領域の正確な幾何学的特徴付けを導出できる。
回帰問題に対する推論への適応も考えられている。
論文 参考訳(メタデータ) (2021-05-31T09:32:46Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Why do you think that? Exploring Faithful Sentence-Level Rationales
Without Supervision [60.62434362997016]
文レベルで忠実な論理を出力するモデルを作成するために,異なる訓練枠組みを提案する。
本モデルでは,各理性に基づいて各課題を個別に解決し,その課題を最もよく解決した者に高いスコアを割り当てることを学ぶ。
論文 参考訳(メタデータ) (2020-10-07T12:54:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。