論文の概要: Assessing Look-Ahead Bias in Stock Return Predictions Generated By GPT
Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2309.17322v1
- Date: Fri, 29 Sep 2023 15:30:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 13:02:37.658560
- Title: Assessing Look-Ahead Bias in Stock Return Predictions Generated By GPT
Sentiment Analysis
- Title(参考訳): GPT感度分析による株価リターン予測におけるルックアヘッドバイアスの評価
- Authors: Paul Glasserman, Caden Lin
- Abstract要約: 大規模言語モデル(LLM)は、ニューステキストの感情から利益の出るトレーディング信号を抽出することができる。
このバイアスは、LLMがニュース記事に続く株価のリターンについて特定の知識を持つことができるルック・ア・ヘッドバイアスと、社名を冠した企業の一般的な知識がテキストの感情の測定に干渉する気晴らし効果の2つの形態をとることができる。
金融ニュースの見出しの感情が引き起こすトレーディング戦略を通じて、これらのバイアス源を調査します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs), including ChatGPT, can extract profitable
trading signals from the sentiment in news text. However, backtesting such
strategies poses a challenge because LLMs are trained on many years of data,
and backtesting produces biased results if the training and backtesting periods
overlap. This bias can take two forms: a look-ahead bias, in which the LLM may
have specific knowledge of the stock returns that followed a news article, and
a distraction effect, in which general knowledge of the companies named
interferes with the measurement of a text's sentiment. We investigate these
sources of bias through trading strategies driven by the sentiment of financial
news headlines. We compare trading performance based on the original headlines
with de-biased strategies in which we remove the relevant company's identifiers
from the text. In-sample (within the LLM training window), we find,
surprisingly, that the anonymized headlines outperform, indicating that the
distraction effect has a greater impact than look-ahead bias. This tendency is
particularly strong for larger companies--companies about which we expect an
LLM to have greater general knowledge. Out-of-sample, look-ahead bias is not a
concern but distraction remains possible. Our proposed anonymization procedure
is therefore potentially useful in out-of-sample implementation, as well as for
de-biased backtesting.
- Abstract(参考訳): ChatGPTを含む大規模言語モデル(LLM)は、ニューステキストの感情から利益の出るトレーディングシグナルを抽出することができる。
しかし、LLMは長年のデータに基づいて訓練されており、トレーニングとバックテスト期間が重なると、バックテストの結果がバイアスとなるため、バックテストのような戦略が課題となる。
このバイアスは、LLMがニュース記事に続く株価のリターンについて特定の知識を持つことができるルック・ア・ヘッドバイアスと、社名を冠した企業の一般的な知識がテキストの感情の測定に干渉する気晴らし効果の2つの形態をとることができる。
金融ニュースの見出しの感情が引き起こすトレーディング戦略を通じて、これらのバイアス源を調査します。
我々は、元の見出しに基づく取引実績と、関連する企業の識別子をテキストから削除する非バイアス戦略を比較した。
インサンプル(LLMトレーニングウィンドウ内)では、匿名化された見出しの方が優れており、注意散らし効果がルックアヘッドバイアスよりも大きな影響があることがわかりました。
この傾向は大企業にとって特に強く、LLMがより一般的な知識を持つことを期待している。
サンプル外、ルック・ア・ヘッドバイアスは関心事ではないが、気晴らしは依然として可能である。
提案した匿名化手法は,非バイアスバックテストだけでなく,サンプル外実装にも有用である。
関連論文リスト
- Cognitive Biases in Large Language Models for News Recommendation [68.90354828533535]
本稿では,認知バイアスが大規模言語モデル(LLM)に基づくニュースレコメンデータシステムに与える影響について検討する。
データ拡張、エンジニアリングと学習アルゴリズムの側面を通じて、これらのバイアスを軽減する戦略について議論する。
論文 参考訳(メタデータ) (2024-10-03T18:42:07Z) - Towards Implicit Bias Detection and Mitigation in Multi-Agent LLM Interactions [25.809599403713506]
大規模言語モデル(LLM)は、社会をシミュレートし、多様な社会的タスクを実行するために、多くの研究で採用されている。
LLMは、人為的なデータに曝されるため、社会的偏見に影響を受けやすい。
本研究では,多エージェントLDM相互作用における性バイアスの存在について検討し,これらのバイアスを軽減するための2つの方法を提案する。
論文 参考訳(メタデータ) (2024-10-03T15:28:05Z) - Unboxing Occupational Bias: Grounded Debiasing of LLMs with U.S. Labor Data [9.90951705988724]
大規模言語モデル(LLM)は、社会的バイアスを継承し増幅する傾向がある。
LLMバイアスは、不公平な慣行をもたらし、社会的不平等を悪化させる。
論文 参考訳(メタデータ) (2024-08-20T23:54:26Z) - Promoting Equality in Large Language Models: Identifying and Mitigating the Implicit Bias based on Bayesian Theory [29.201402717025335]
大規模言語モデル(LLM)は、必然的にバイアスのある情報を含む広範なテキストコーパスで訓練される。
我々は、暗黙のバイアス問題を正式に定義し、ベイズ理論に基づくバイアス除去のための革新的な枠組みを開発した。
論文 参考訳(メタデータ) (2024-08-20T07:40:12Z) - The African Woman is Rhythmic and Soulful: An Investigation of Implicit Biases in LLM Open-ended Text Generation [3.9945212716333063]
大規模言語モデル(LLM)による決定に影響を与えるため、暗黙のバイアスは重要である。
伝統的に、明示的なバイアステストや埋め込みベースの手法はバイアスを検出するために使用されるが、これらのアプローチはより微妙で暗黙的なバイアスの形式を見落としることができる。
提案手法は, 暗黙の偏見を明らかにするために, 即発的, 意思決定的タスクによる2つの新しい心理学的手法を導入している。
論文 参考訳(メタデータ) (2024-07-01T13:21:33Z) - Investigating Bias in LLM-Based Bias Detection: Disparities between LLMs and Human Perception [13.592532358127293]
大規模言語モデル(LLM)におけるバイアスの存在と性質について検討する。
LLMが特に政治的バイアス予測やテキスト継続タスクにおいてバイアスを示すかどうかを調査する。
我々は,素早い工学とモデル微調整を含む脱バイアス戦略を提案する。
論文 参考訳(メタデータ) (2024-03-22T00:59:48Z) - Take Care of Your Prompt Bias! Investigating and Mitigating Prompt Bias in Factual Knowledge Extraction [56.17020601803071]
近年の研究では、事前学習言語モデル(PLM)が、事実知識抽出において「急激なバイアス」に悩まされていることが示されている。
本稿では,突発バイアスを徹底的に調査し緩和することにより,既存のベンチマークの信頼性を向上させることを目的とする。
論文 参考訳(メタデータ) (2024-03-15T02:04:35Z) - Pride and Prejudice: LLM Amplifies Self-Bias in Self-Refinement [75.7148545929689]
大規模言語モデル(LLM)は、特定のタスクの自己フィードバックを通じてパフォーマンスを向上し、他のタスクを劣化させる。
我々は、LSMの自己バイアス(自称世代を好む傾向)を正式に定義する。
我々は、翻訳、制約付きテキスト生成、数学的推論の6つのLCMを解析する。
論文 参考訳(メタデータ) (2024-02-18T03:10:39Z) - Exploring Value Biases: How LLMs Deviate Towards the Ideal [57.99044181599786]
LLM(Large-Language-Models)は幅広いアプリケーションにデプロイされ、その応答は社会的影響を増大させる。
価値バイアスは、人間の研究結果と同様、異なるカテゴリにわたるLSMにおいて強いことが示される。
論文 参考訳(メタデータ) (2024-02-16T18:28:43Z) - GPTBIAS: A Comprehensive Framework for Evaluating Bias in Large Language
Models [83.30078426829627]
大規模言語モデル(LLM)は人気を集め、大規模なユーザコミュニティで広く採用されている。
既存の評価手法には多くの制約があり、それらの結果は限定的な解釈可能性を示している。
本稿では,LPMの高性能性を活用し,モデル内のバイアスを評価するGPTBIASというバイアス評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T12:02:14Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。