論文の概要: DeFine: Enhancing LLM Decision-Making with Factor Profiles and Analogical Reasoning
- arxiv url: http://arxiv.org/abs/2410.01772v1
- Date: Wed, 2 Oct 2024 17:29:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 15:24:19.006121
- Title: DeFine: Enhancing LLM Decision-Making with Factor Profiles and Analogical Reasoning
- Title(参考訳): DeFine: 因子プロファイルとアナロジカル推論によるLCM意思決定の強化
- Authors: Yebowen Hu, Xiaoyang Wang, Wenlin Yao, Yiming Lu, Daoan Zhang, Hassan Foroosh, Dong Yu, Fei Liu,
- Abstract要約: 複雑なシナリオから確率的因子プロファイルを構築する新しいフレームワークであるDeFineを紹介する。
DeFineは、これらのプロファイルを類似の推論と統合し、同様の過去の経験からの洞察を活用する。
このアプローチは医療相談、交渉、政治討論などの分野で特に有用である。
- 参考スコア(独自算出の注目度): 35.9909472797192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLMs are ideal for decision-making due to their ability to reason over long contexts and identify critical factors. However, challenges arise when processing transcripts of spoken speech describing complex scenarios. These transcripts often contain ungrammatical or incomplete sentences, repetitions, hedging, and vagueness. For example, during a company's earnings call, an executive might project a positive revenue outlook to reassure investors, despite significant uncertainty regarding future earnings. It is crucial for LLMs to incorporate this uncertainty systematically when making decisions. In this paper, we introduce DeFine, a new framework that constructs probabilistic factor profiles from complex scenarios. DeFine then integrates these profiles with analogical reasoning, leveraging insights from similar past experiences to guide LLMs in making critical decisions in novel situations. Our framework separates the tasks of quantifying uncertainty in complex scenarios and incorporating it into LLM decision-making. This approach is particularly useful in fields such as medical consultations, negotiations, and political debates, where making decisions under uncertainty is vital.
- Abstract(参考訳): LLMは、長いコンテキストを推論し、重要な要因を特定する能力のため、意思決定に理想的です。
しかし,複雑なシナリオを記述した音声の書き起こしを処理する場合,課題が発生する。
これらの写本は、しばしば非文法的あるいは不完全な文、繰り返し、ヘッジ、曖昧さを含んでいる。
例えば、会社の決算会見の間、幹部は、将来の利益に関して大きな不確実性があるにもかかわらず、投資家を安心させるためにポジティブな収益見通しを予想するかもしれない。
LLMが決定を下す際には、この不確実性を体系的に組み込むことが不可欠である。
本稿では,複雑なシナリオから確率係数プロファイルを構築する新しいフレームワークであるDeFineを紹介する。
DeFineはこれらのプロファイルを類似の推論と統合し、同様の過去の経験からの洞察を活用して、新しい状況における批判的な決定をLCMに導く。
本フレームワークは,複雑なシナリオにおける不確実性を定量化し,LCMの意思決定に組み込むタスクを分離する。
このアプローチは、医療相談、交渉、政治的議論といった分野において特に有用であり、不確実性の下での意思決定が不可欠である。
関連論文リスト
- Distributive Fairness in Large Language Models: Evaluating Alignment with Human Values [13.798198972161657]
多くの社会的問題は資源の分配に関係しており、公平さと経済効率は結果の望ましさにおいて重要な役割を担っている。
本稿では,大規模言語モデル (LLM) が基本的公平性の概念に準拠しているかどうかを考察し,人間の嗜好との整合性について検討する。
論文 参考訳(メタデータ) (2025-02-01T04:24:47Z) - STRUX: An LLM for Decision-Making with Structured Explanations [17.518955158367305]
STRUXと呼ばれる新しいフレームワークを導入し、構造化された説明を提供することでLCMの意思決定を強化する。
STRUXは、キーファクトの簡潔なテーブルに長い情報を蒸留することから始まる。
次に、これらの事実のどれが重要かを決定するために一連の自己回帰ステップを使用し、特定の決定に関して、それらが好ましいか悪いかのどちらかに分類する。
論文 参考訳(メタデータ) (2024-10-16T14:01:22Z) - Understanding the Relationship between Prompts and Response Uncertainty in Large Language Models [55.332004960574004]
大規模言語モデル(LLM)は意思決定に広く使用されているが、特に医療などの重要なタスクにおける信頼性は十分に確立されていない。
本稿では,LSMが生成する応答の不確実性が,入力プロンプトで提供される情報とどのように関連しているかを検討する。
本稿では,LLMが応答を生成する方法を説明し,プロンプトと応答の不確実性の関係を理解するためのプロンプト応答の概念モデルを提案する。
論文 参考訳(メタデータ) (2024-07-20T11:19:58Z) - Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は意思決定タスクを自動化するために使用される。
本稿では,LPMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを評価する。
さまざまな因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成します。
これらのベンチマークにより、LLMが事実を記憶したり、他のショートカットを見つけたりすることで、変化を正確に予測する能力を切り離すことができます。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - FinLlama: Financial Sentiment Classification for Algorithmic Trading Applications [2.2661367844871854]
大規模言語モデル(LLM)はこの文脈で使用することができるが、財務に特化せず、重要な計算資源を必要とする傾向がある。
我々はLlama 2 7Bの基礎モデルに基づく新しいアプローチを導入し,その生成特性と包括的言語操作の利点を享受する。
これは、Llama2 7Bモデルを教師付き財務感情分析データの一部に微調整することで達成される。
論文 参考訳(メタデータ) (2024-03-18T22:11:00Z) - Reasoning over Uncertain Text by Generative Large Language Models [18.983753573277596]
本稿では,大言語モデル (LLM) が,確率値を介して明示的に定量化される不確実性を含む情報を含むテキストを推論する際に直面する課題について考察する。
LLMの確率論的推論能力をテストするために設計された新しいデータセットであるBayesian Linguistic Inference dataset (BLInD)を紹介する。
我々は,Pythonのコード,確率的アルゴリズム,確率論的論理プログラミングなど,問題を異なる形式的表現にマッピングするいくつかのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-02-14T23:05:44Z) - Sentiment Analysis through LLM Negotiations [58.67939611291001]
感情分析の標準的なパラダイムは、単一のLCMに依存して、その決定を1ラウンドで行うことである。
本稿では,感情分析のためのマルチLLMネゴシエーションフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-03T12:35:29Z) - A Comprehensive Evaluation of Large Language Models on Legal Judgment
Prediction [60.70089334782383]
大規模言語モデル(LLM)は、ドメイン固有のアプリケーションに大きな可能性を示している。
GPT-4の法律評価をめぐる近年の論争は、現実の法的タスクにおけるパフォーマンスに関する疑問を提起している。
我々は,LLMに基づく実践的ベースラインソリューションを設計し,法的判断予測の課題を検証した。
論文 参考訳(メタデータ) (2023-10-18T07:38:04Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。