論文の概要: Benchmarking Large Language Model Volatility
- arxiv url: http://arxiv.org/abs/2311.15180v1
- Date: Sun, 26 Nov 2023 03:54:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 18:58:23.449777
- Title: Benchmarking Large Language Model Volatility
- Title(参考訳): 大規模言語モデルのボラティリティのベンチマーク
- Authors: Boyang Yu
- Abstract要約: 大規模言語モデル(LLM)からの非決定論的アウトプットの影響は,財務テキスト理解タスクにおいて十分に検討されていない。
ニュース感情分析を通じて、米国株式市場への投資に関する説得力あるケーススタディを通じて、文レベルの感情分類結果のかなりの変動を明らかにする。
これらの不確実性は下流のカスケードとなり、ポートフォリオの構築とリターンに大きな変化をもたらした。
- 参考スコア(独自算出の注目度): 4.660822118740283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The impact of non-deterministic outputs from Large Language Models (LLMs) is
not well examined for financial text understanding tasks. Through a compelling
case study on investing in the US equity market via news sentiment analysis, we
uncover substantial variability in sentence-level sentiment classification
results, underscoring the innate volatility of LLM outputs. These uncertainties
cascade downstream, leading to more significant variations in portfolio
construction and return. While tweaking the temperature parameter in the
language model decoder presents a potential remedy, it comes at the expense of
stifled creativity. Similarly, while ensembling multiple outputs mitigates the
effect of volatile outputs, it demands a notable computational investment. This
work furnishes practitioners with invaluable insights for adeptly navigating
uncertainty in the integration of LLMs into financial decision-making,
particularly in scenarios dictated by non-deterministic information.
- Abstract(参考訳): 大規模言語モデル(LLM)からの非決定論的アウトプットの影響は,財務テキスト理解タスクにおいて十分に検討されていない。
ニュース感情分析による米国株式市場への投資に関する説得力のあるケーススタディを通じて、文レベルの感情分類結果の実質的な変動を明らかにし、llm出力の生来のボラティリティを強調する。
これらの不確実性は下流に流れ込み、ポートフォリオの構築とリターンに大きな変化をもたらした。
言語モデルデコーダの温度パラメータを微調整すると、潜在的な対策が提示されるが、創造性を損なうことになる。
同様に、複数の出力をアンサンブルすることは揮発性出力の効果を緩和するが、注目すべき計算投資を必要とする。
本研究は,LLMの金融意思決定への統合の不確実性,特に非決定論的情報によって決定されるシナリオにおいて,不確実性に対処するための貴重な洞察を実践者に与えている。
関連論文リスト
- LLMFactor: Extracting Profitable Factors through Prompts for Explainable Stock Movement Prediction [5.519288891583653]
LLMFactorと呼ばれる新しいフレームワークを導入し、ストックムーブメントに影響を与える要因を特定する。
キーフレーズや感情分析に頼っていた従来の手法とは異なり、このアプローチは株式市場のダイナミクスとより直接的に関係する要因を抽出することに焦点を当てている。
当社の枠組みは,LCMに対して,包括的戦略を通じて背景知識の創出を指示し,関連ニュースから株価に影響を及ぼす潜在的な要因を識別する。
論文 参考訳(メタデータ) (2024-06-16T06:20:50Z) - Advancing Anomaly Detection: Non-Semantic Financial Data Encoding with LLMs [49.57641083688934]
本稿では,Large Language Models (LLM) 埋め込みを用いた財務データにおける異常検出の新しい手法を提案する。
実験により,LLMが異常検出に有用な情報をもたらし,モデルがベースラインを上回っていることが確認された。
論文 参考訳(メタデータ) (2024-06-05T20:19:09Z) - The Economic Implications of Large Language Model Selection on Earnings and Return on Investment: A Decision Theoretic Model [0.0]
我々は、異なる言語モデルによる金銭的影響を比較するために、決定論的アプローチを用いる。
この研究は、より高価なモデルの優れた精度が、特定の条件下でどのようにしてより大きな投資を正当化できるかを明らかにしている。
この記事では、テクノロジの選択を最適化しようとしている企業のためのフレームワークを提供する。
論文 参考訳(メタデータ) (2024-05-27T20:08:41Z) - Language Model Cascades: Token-level uncertainty and beyond [65.38515344964647]
言語モデル(LM)の最近の進歩により、複雑なNLPタスクの品質が大幅に向上した。
Cascadingは、より好ましいコスト品質のトレードオフを達成するためのシンプルな戦略を提供する。
トークンレベルの不確実性を学習後遅延ルールに組み込むことで,単純な集約戦略を著しく上回ることを示す。
論文 参考訳(メタデータ) (2024-04-15T21:02:48Z) - FinLlama: Financial Sentiment Classification for Algorithmic Trading Applications [2.2661367844871854]
大規模言語モデル(LLM)はこの文脈で使用することができるが、財務に特化せず、重要な計算資源を必要とする傾向がある。
我々はLlama 2 7Bの基礎モデルに基づく新しいアプローチを導入し,その生成特性と包括的言語操作の利点を享受する。
これは、Llama2 7Bモデルを教師付き財務感情分析データの一部に微調整することで達成される。
論文 参考訳(メタデータ) (2024-03-18T22:11:00Z) - Uncertainty Quantification for In-Context Learning of Large Language Models [52.891205009620364]
大規模言語モデル(LLM)の画期的な能力として、文脈内学習が登場している。
両タイプの不確かさを定量化するための新しい定式化法とそれに対応する推定法を提案する。
提案手法は、プラグイン・アンド・プレイ方式でコンテキスト内学習の予測を理解するための教師なしの方法を提供する。
論文 参考訳(メタデータ) (2024-02-15T18:46:24Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Towards reducing hallucination in extracting information from financial
reports using Large Language Models [1.2289361708127877]
本稿では,Large Language Models (LLMs) が業績報告書から効率的にかつ迅速に情報を抽出する方法を示す。
我々は,Q&Aシステム評価のための様々な客観的指標に基づいて,提案手法を使わずに,様々なLCMの結果を評価する。
論文 参考訳(メタデータ) (2023-10-16T18:45:38Z) - Enhancing Financial Sentiment Analysis via Retrieval Augmented Large
Language Models [11.154814189699735]
大規模な言語モデル (LLM) は様々なNLPタスクにおいて優れた性能を示した。
本稿では,金融感情分析のためのLLMフレームワークを提案する。
提案手法の精度は15%から48%向上し,F1得点を得た。
論文 参考訳(メタデータ) (2023-10-06T05:40:23Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。