論文の概要: DeFine: Enhancing LLM Decision-Making with Factor Profiles and Analogical Reasoning
- arxiv url: http://arxiv.org/abs/2410.01772v1
- Date: Wed, 2 Oct 2024 17:29:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 15:24:19.006121
- Title: DeFine: Enhancing LLM Decision-Making with Factor Profiles and Analogical Reasoning
- Title(参考訳): DeFine: 因子プロファイルとアナロジカル推論によるLCM意思決定の強化
- Authors: Yebowen Hu, Xiaoyang Wang, Wenlin Yao, Yiming Lu, Daoan Zhang, Hassan Foroosh, Dong Yu, Fei Liu,
- Abstract要約: 複雑なシナリオから確率的因子プロファイルを構築する新しいフレームワークであるDeFineを紹介する。
DeFineは、これらのプロファイルを類似の推論と統合し、同様の過去の経験からの洞察を活用する。
このアプローチは医療相談、交渉、政治討論などの分野で特に有用である。
- 参考スコア(独自算出の注目度): 35.9909472797192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLMs are ideal for decision-making due to their ability to reason over long contexts and identify critical factors. However, challenges arise when processing transcripts of spoken speech describing complex scenarios. These transcripts often contain ungrammatical or incomplete sentences, repetitions, hedging, and vagueness. For example, during a company's earnings call, an executive might project a positive revenue outlook to reassure investors, despite significant uncertainty regarding future earnings. It is crucial for LLMs to incorporate this uncertainty systematically when making decisions. In this paper, we introduce DeFine, a new framework that constructs probabilistic factor profiles from complex scenarios. DeFine then integrates these profiles with analogical reasoning, leveraging insights from similar past experiences to guide LLMs in making critical decisions in novel situations. Our framework separates the tasks of quantifying uncertainty in complex scenarios and incorporating it into LLM decision-making. This approach is particularly useful in fields such as medical consultations, negotiations, and political debates, where making decisions under uncertainty is vital.
- Abstract(参考訳): LLMは、長いコンテキストを推論し、重要な要因を特定する能力のため、意思決定に理想的です。
しかし,複雑なシナリオを記述した音声の書き起こしを処理する場合,課題が発生する。
これらの写本は、しばしば非文法的あるいは不完全な文、繰り返し、ヘッジ、曖昧さを含んでいる。
例えば、会社の決算会見の間、幹部は、将来の利益に関して大きな不確実性があるにもかかわらず、投資家を安心させるためにポジティブな収益見通しを予想するかもしれない。
LLMが決定を下す際には、この不確実性を体系的に組み込むことが不可欠である。
本稿では,複雑なシナリオから確率係数プロファイルを構築する新しいフレームワークであるDeFineを紹介する。
DeFineはこれらのプロファイルを類似の推論と統合し、同様の過去の経験からの洞察を活用して、新しい状況における批判的な決定をLCMに導く。
本フレームワークは,複雑なシナリオにおける不確実性を定量化し,LCMの意思決定に組み込むタスクを分離する。
このアプローチは、医療相談、交渉、政治的議論といった分野において特に有用であり、不確実性の下での意思決定が不可欠である。
関連論文リスト
- STRUX: An LLM for Decision-Making with Structured Explanations [17.518955158367305]
STRUXと呼ばれる新しいフレームワークを導入し、構造化された説明を提供することでLCMの意思決定を強化する。
STRUXは、キーファクトの簡潔なテーブルに長い情報を蒸留することから始まる。
次に、これらの事実のどれが重要かを決定するために一連の自己回帰ステップを使用し、特定の決定に関して、それらが好ましいか悪いかのどちらかに分類する。
論文 参考訳(メタデータ) (2024-10-16T14:01:22Z) - Understanding the Relationship between Prompts and Response Uncertainty in Large Language Models [55.332004960574004]
大規模言語モデル(LLM)は意思決定に広く使用されているが、特に医療などの重要なタスクにおける信頼性は十分に確立されていない。
本稿では,LSMが生成する応答の不確実性が,入力プロンプトで提供される情報とどのように関連しているかを検討する。
本稿では,LLMが応答を生成する方法を説明し,プロンプトと応答の不確実性の関係を理解するためのプロンプト応答の概念モデルを提案する。
論文 参考訳(メタデータ) (2024-07-20T11:19:58Z) - Argumentative Large Language Models for Explainable and Contestable Decision-Making [13.045050015831903]
大規模言語モデル (LLMs) は意思決定において有望な候補である。
それらは、説明可能で競合可能なアウトプットを確実に提供できないため、制限されている。
議論フレームワークを構築するために LLM を利用する手法である 引数 LLM を導入する。
クレーム検証の意思決定タスクにおいて,議論的LLMの有効性を実験的に示す。
論文 参考訳(メタデータ) (2024-05-03T13:12:28Z) - Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は、システムの異なる部分への介入の下で因果効果を推定することができる。
LLMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを実証分析して評価する。
我々は、様々な因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成し、介入に基づく推論の研究を可能にする。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - FinLlama: Financial Sentiment Classification for Algorithmic Trading Applications [2.2661367844871854]
大規模言語モデル(LLM)はこの文脈で使用することができるが、財務に特化せず、重要な計算資源を必要とする傾向がある。
我々はLlama 2 7Bの基礎モデルに基づく新しいアプローチを導入し,その生成特性と包括的言語操作の利点を享受する。
これは、Llama2 7Bモデルを教師付き財務感情分析データの一部に微調整することで達成される。
論文 参考訳(メタデータ) (2024-03-18T22:11:00Z) - Benchmarking Large Language Model Volatility [4.660822118740283]
大規模言語モデル(LLM)からの非決定論的アウトプットの影響は,財務テキスト理解タスクにおいて十分に検討されていない。
ニュース感情分析を通じて、米国株式市場への投資に関する説得力あるケーススタディを通じて、文レベルの感情分類結果のかなりの変動を明らかにする。
これらの不確実性は下流のカスケードとなり、ポートフォリオの構築とリターンに大きな変化をもたらした。
論文 参考訳(メタデータ) (2023-11-26T03:54:03Z) - Sentiment Analysis through LLM Negotiations [58.67939611291001]
感情分析の標準的なパラダイムは、単一のLCMに依存して、その決定を1ラウンドで行うことである。
本稿では,感情分析のためのマルチLLMネゴシエーションフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-03T12:35:29Z) - A Comprehensive Evaluation of Large Language Models on Legal Judgment
Prediction [60.70089334782383]
大規模言語モデル(LLM)は、ドメイン固有のアプリケーションに大きな可能性を示している。
GPT-4の法律評価をめぐる近年の論争は、現実の法的タスクにおけるパフォーマンスに関する疑問を提起している。
我々は,LLMに基づく実践的ベースラインソリューションを設計し,法的判断予測の課題を検証した。
論文 参考訳(メタデータ) (2023-10-18T07:38:04Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。