論文の概要: DeFine: Decision-Making with Analogical Reasoning over Factor Profiles
- arxiv url: http://arxiv.org/abs/2410.01772v2
- Date: Thu, 17 Jul 2025 17:58:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.183317
- Title: DeFine: Decision-Making with Analogical Reasoning over Factor Profiles
- Title(参考訳): DeFine: 因子プロファイルに関する分析的推論による意思決定
- Authors: Yebowen Hu, Xiaoyang Wang, Wenlin Yao, Yiming Lu, Daoan Zhang, Hassan Foroosh, Dong Yu, Fei Liu,
- Abstract要約: textscDeFineは複雑なシナリオから確率係数プロファイルを構築するモジュラーフレームワークである。
次に、これらのプロファイルと類似の推論を統合して、新しい状況における重要な決定をLCMに導く。
このアプローチは、不確実性の下での意思決定が不可欠であるコンサルティングや金融交渉といった分野において特に有用である。
- 参考スコア(独自算出の注目度): 35.9909472797192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLMs are ideal for decision-making thanks to their ability to reason over long contexts. However, challenges arise when processing speech transcripts that describe complex scenarios, as they are verbose and include repetition, hedging, and vagueness. E.g., during a company's earnings call, an executive might project a positive revenue outlook to reassure investors, despite uncertainty regarding future earnings. It is crucial for LLMs to incorporate this uncertainty systematically when making decisions. In this paper, we introduce \textsc{DeFine}, a modular framework that constructs probabilistic factor profiles from complex scenarios. It then integrates these profiles with analogical reasoning, leveraging insights from similar past experiences to guide LLMs in making critical decisions in new situations. Our framework separates the tasks of quantifying uncertainty and incorporating it into LLM decision-making. This approach is particularly useful in areas such as consulting and financial deliberation, where making decisions under uncertainty is vital.
- Abstract(参考訳): LLMは、長いコンテキストで推論できる能力のおかげで、意思決定に最適です。
しかし、複雑なシナリオを記述し、繰り返し、ヘッジ、曖昧さを含む複雑なシナリオを記述した音声書き起こしを処理する場合、課題が発生する。
例えば、会社の決算会見の間、幹部は、将来の利益に関する不確実性にもかかわらず、投資家を安心させるためにポジティブな収益見通しを予想するかもしれない。
LLMが決定を下す際には、この不確実性を体系的に組み込むことが不可欠である。
本稿では,複雑なシナリオから確率的因子プロファイルを構築するモジュラーフレームワークである \textsc{DeFine} を紹介する。
次に、これらのプロファイルを類似の推論と統合し、同様の過去の経験からの洞察を活用して、新しい状況における重要な決定をLCMに導く。
本フレームワークは,不確実性を定量化し,LCM意思決定に組み込むタスクを分離する。
このアプローチは、不確実性の下での意思決定が不可欠であるコンサルティングや金融交渉といった分野において特に有用である。
関連論文リスト
- Your AI, Not Your View: The Bias of LLMs in Investment Analysis [55.328782443604986]
大規模言語モデル(LLM)は、事前訓練されたパラメトリック知識とリアルタイム市場データとの相違により、しばしば知識の衝突に直面している。
本稿では, LLMに基づく投資分析において, 確認バイアスの定量的分析を行った。
われわれは、大口株に対する一貫した選好と、ほとんどのモデルにおけるコントラリアン戦略を観察する。
論文 参考訳(メタデータ) (2025-07-28T16:09:38Z) - UProp: Investigating the Uncertainty Propagation of LLMs in Multi-Step Agentic Decision-Making [47.64013151246807]
大規模言語モデル(LLM)は、シーケンシャルな意思決定を含む安全クリティカルなアプリケーションに統合される。
既存のLLM Uncertainty Quantification (UQ) 法は、主にシングルターン質問応答形式のために設計されている。
LLMシーケンシャルな決定の不確かさを2つの部分に分解する原理的情報理論フレームワークを導入する。
論文 参考訳(メタデータ) (2025-06-20T18:34:04Z) - Extending Epistemic Uncertainty Beyond Parameters Would Assist in Designing Reliable LLMs [40.7342896954488]
我々は、不確実性を推論し、不確実性の再現性を明確化するコヒーレントな基盤を提供する枠組みの採用を提唱する。
受動的回避よりも能動的解決をサポートすることで、より信頼性が高く透明で広く適用可能なLCMシステムへの扉を開くことができる。
論文 参考訳(メタデータ) (2025-06-09T05:52:03Z) - DecisionFlow: Advancing Large Language Model as Principled Decision Maker [48.654276010223384]
DecisionFlowは、モデルにアクション、属性、制約の構造化された表現を推論するように誘導する、新しい決定モデリングフレームワークである。
プロンプトから直接回答を予測するのではなく、DecisionFlowは意味論的に根拠のある決定空間を構築し、潜在ユーティリティ関数を推論する。
実験の結果,DecisionFlowの精度は,強いプロンプトベースラインよりも最大30%向上した。
論文 参考訳(メタデータ) (2025-05-27T16:23:53Z) - Distributive Fairness in Large Language Models: Evaluating Alignment with Human Values [13.798198972161657]
多くの社会的問題は資源の分配に関係しており、公平さと経済効率は結果の望ましさにおいて重要な役割を担っている。
本稿では,大規模言語モデル (LLM) が基本的公平性の概念に準拠しているかどうかを考察し,人間の嗜好との整合性について検討する。
論文 参考訳(メタデータ) (2025-02-01T04:24:47Z) - STRUX: An LLM for Decision-Making with Structured Explanations [17.518955158367305]
STRUXと呼ばれる新しいフレームワークを導入し、構造化された説明を提供することでLCMの意思決定を強化する。
STRUXは、キーファクトの簡潔なテーブルに長い情報を蒸留することから始まる。
次に、これらの事実のどれが重要かを決定するために一連の自己回帰ステップを使用し、特定の決定に関して、それらが好ましいか悪いかのどちらかに分類する。
論文 参考訳(メタデータ) (2024-10-16T14:01:22Z) - Understanding the Relationship between Prompts and Response Uncertainty in Large Language Models [55.332004960574004]
大規模言語モデル(LLM)は意思決定に広く使用されているが、特に医療などの重要なタスクにおける信頼性は十分に確立されていない。
本稿では,LSMが生成する応答の不確実性が,入力プロンプトで提供される情報とどのように関連しているかを検討する。
本稿では,LLMが応答を生成する方法を説明し,プロンプトと応答の不確実性の関係を理解するためのプロンプト応答の概念モデルを提案する。
論文 参考訳(メタデータ) (2024-07-20T11:19:58Z) - The Economic Implications of Large Language Model Selection on Earnings and Return on Investment: A Decision Theoretic Model [0.0]
我々は、異なる言語モデルによる金銭的影響を比較するために、決定論的アプローチを用いる。
この研究は、より高価なモデルの優れた精度が、特定の条件下でどのようにしてより大きな投資を正当化できるかを明らかにしている。
この記事では、テクノロジの選択を最適化しようとしている企業のためのフレームワークを提供する。
論文 参考訳(メタデータ) (2024-05-27T20:08:41Z) - Argumentative Large Language Models for Explainable and Contestable Decision-Making [13.045050015831903]
大規模言語モデル (LLMs) は意思決定において有望な候補である。
それらは、説明可能で競合可能なアウトプットを確実に提供できないため、制限されている。
議論フレームワークを構築するために LLM を利用する手法である 引数 LLM を導入する。
クレーム検証の意思決定タスクにおいて,議論的LLMの有効性を実験的に示す。
論文 参考訳(メタデータ) (2024-05-03T13:12:28Z) - Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は、システムの異なる部分への介入の下で因果効果を推定することができる。
LLMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを実証分析して評価する。
我々は、様々な因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成し、介入に基づく推論の研究を可能にする。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - FinLlama: Financial Sentiment Classification for Algorithmic Trading Applications [2.2661367844871854]
大規模言語モデル(LLM)はこの文脈で使用することができるが、財務に特化せず、重要な計算資源を必要とする傾向がある。
我々はLlama 2 7Bの基礎モデルに基づく新しいアプローチを導入し,その生成特性と包括的言語操作の利点を享受する。
これは、Llama2 7Bモデルを教師付き財務感情分析データの一部に微調整することで達成される。
論文 参考訳(メタデータ) (2024-03-18T22:11:00Z) - Benchmarking Large Language Model Volatility [4.660822118740283]
大規模言語モデル(LLM)からの非決定論的アウトプットの影響は,財務テキスト理解タスクにおいて十分に検討されていない。
ニュース感情分析を通じて、米国株式市場への投資に関する説得力あるケーススタディを通じて、文レベルの感情分類結果のかなりの変動を明らかにする。
これらの不確実性は下流のカスケードとなり、ポートフォリオの構築とリターンに大きな変化をもたらした。
論文 参考訳(メタデータ) (2023-11-26T03:54:03Z) - Sentiment Analysis through LLM Negotiations [58.67939611291001]
感情分析の標準的なパラダイムは、単一のLCMに依存して、その決定を1ラウンドで行うことである。
本稿では,感情分析のためのマルチLLMネゴシエーションフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-03T12:35:29Z) - A Comprehensive Evaluation of Large Language Models on Legal Judgment
Prediction [60.70089334782383]
大規模言語モデル(LLM)は、ドメイン固有のアプリケーションに大きな可能性を示している。
GPT-4の法律評価をめぐる近年の論争は、現実の法的タスクにおけるパフォーマンスに関する疑問を提起している。
我々は,LLMに基づく実践的ベースラインソリューションを設計し,法的判断予測の課題を検証した。
論文 参考訳(メタデータ) (2023-10-18T07:38:04Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z) - Concise and Organized Perception Facilitates Reasoning in Large Language Models [31.238220405009617]
推論に取り組むために大規模な言語モデル(LLM)をエクスプロイトすることは、注目を集めている。
複雑な論理的問題において満足な結果を達成することは依然として非常に困難であり、コンテキスト内の多くの前提とマルチホップ推論が特徴である。
本研究は,まず情報フローの観点からそのメカニズムを考察し,不規則な内容や無関係な内容を扱う際に,人間のような認知バイアスに類似した困難に直面することを明らかにする。
論文 参考訳(メタデータ) (2023-10-05T04:47:49Z) - On solving decision and risk management problems subject to uncertainty [91.3755431537592]
不確実性は意思決定とリスク管理において広範囲にわたる課題である。
本稿では,このような戦略を体系的に理解し,その適用範囲を判断し,それらをうまく活用するための枠組みを開発する。
論文 参考訳(メタデータ) (2023-01-18T19:16:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。