論文の概要: Your AI, Not Your View: The Bias of LLMs in Investment Analysis
- arxiv url: http://arxiv.org/abs/2507.20957v4
- Date: Thu, 16 Oct 2025 18:06:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 11:39:14.488166
- Title: Your AI, Not Your View: The Bias of LLMs in Investment Analysis
- Title(参考訳): 投資分析におけるLLMのバイアス
- Authors: Hoyoung Lee, Junhyuk Seo, Suhwan Park, Junhyeong Lee, Wonbin Ahn, Chanyeol Choi, Alejandro Lopez-Lira, Yongjae Lee,
- Abstract要約: 金融において、Large Language Models (LLMs) は、事前訓練されたパラメトリック知識とリアルタイム市場データとの相違から生じる、頻繁な知識紛争に直面している。
これらの対立は、モデル固有のバイアスが制度的目的と誤認される現実世界の投資サービスにおいて特に問題となる。
本研究では,このような紛争シナリオにおける創発的行動を調べるための実験的枠組みを提案し,投資分析におけるバイアスの定量的分析を行う。
- 参考スコア(独自算出の注目度): 62.388554963415906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In finance, Large Language Models (LLMs) face frequent knowledge conflicts arising from discrepancies between their pre-trained parametric knowledge and real-time market data. These conflicts are especially problematic in real-world investment services, where a model's inherent biases can misalign with institutional objectives, leading to unreliable recommendations. Despite this risk, the intrinsic investment biases of LLMs remain underexplored. We propose an experimental framework to investigate emergent behaviors in such conflict scenarios, offering a quantitative analysis of bias in LLM-based investment analysis. Using hypothetical scenarios with balanced and imbalanced arguments, we extract the latent biases of models and measure their persistence. Our analysis, centered on sector, size, and momentum, reveals distinct, model-specific biases. Across most models, a tendency to prefer technology stocks, large-cap stocks, and contrarian strategies is observed. These foundational biases often escalate into confirmation bias, causing models to cling to initial judgments even when faced with increasing counter-evidence. A public leaderboard benchmarking bias across a broader set of models is available at https://linqalpha.com/leaderboard
- Abstract(参考訳): 金融において、Large Language Models (LLMs) は、事前訓練されたパラメトリック知識とリアルタイム市場データとの相違から生じる、頻繁な知識紛争に直面している。
これらの対立は、モデル固有の偏見が制度的目的と誤認され、信頼できない勧告につながる、現実世界の投資サービスにおいて特に問題となる。
このリスクにもかかわらず、LLMの内在的な投資バイアスは未解明のままである。
本研究では,このような紛争シナリオにおける創発的行動を調べるための実験的枠組みを提案し,LLMに基づく投資分析におけるバイアスの定量的分析を行う。
不均衡な議論を伴う仮説的シナリオを用いて、モデルの潜在バイアスを抽出し、その持続性を測定する。
セクター、サイズ、運動量を中心に分析した結果、モデル固有のバイアスが明らかになりました。
ほとんどのモデルにおいて、技術株、大口株、コントラリアン戦略を好む傾向が観察されている。
これらの基礎バイアスは、しばしば確認バイアスへとエスカレートし、反証拠の増加に直面した場合でも、モデルは初期判断にしがみつく。
より広範なモデルの集合にわたる公開リーダボードベンチマークバイアスがhttps://linqalpha.com/ Leaderboardで公開されている。
関連論文リスト
- $φ$-DPO: Fairness Direct Preference Optimization Approach to Continual Learning in Large Multimodal Models [58.217707070069885]
本稿では,LMMにおける連続学習のためのFairness Direct Preference Optimization (FaiDPO, $-DPO) フレームワークを提案する。
まず,直接選好最適化(DPO)に基づく新たな連続学習パラダイムを提案する。
大規模な実験とアブレーション研究は、提案された$-DPOが複数のベンチマークでステート・オブ・ザ・アートのパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2026-02-26T04:14:33Z) - Same Claim, Different Judgment: Benchmarking Scenario-Induced Bias in Multilingual Financial Misinformation Detection [64.75447949495307]
大規模言語モデル (LLM) は金融分野に広く適用されている。
行動バイアスは、意思決定における不安定性と不確実性をもたらす可能性がある。
mfmdscenは様々な経済シナリオで mfmdの行動バイアスを評価するベンチマークです
論文 参考訳(メタデータ) (2026-01-08T22:00:32Z) - Uncovering Representation Bias for Investment Decisions in Open-Source Large Language Models [0.06749750044497731]
本稿では,オープンソースのQwenモデルにおける表現バイアスに着目した。
統計的テストと分散分析を用いて、確固としたサイズと評価がモデルの信頼性を継続的に増加させることが分かる。
特定の金融カテゴリーのモデルが促されると、信頼度ランキングは基本的なデータと最もよく一致し、技術的なシグナルは適度に、そして少なくとも成長指標と一致します。
論文 参考訳(メタデータ) (2025-10-07T09:10:13Z) - To Trade or Not to Trade: An Agentic Approach to Estimating Market Risk Improves Trading Decisions [0.0]
大規模言語モデル(LLM)はますますエージェントフレームワークにデプロイされている。
我々は LLM を用いて金融時系列の微分方程式を反復的に発見するエージェントシステムを開発した。
モデルインフォームドトレーディング戦略は標準LLMエージェントよりも優れていた。
論文 参考訳(メタデータ) (2025-07-11T13:29:32Z) - Relative Bias: A Comparative Framework for Quantifying Bias in LLMs [29.112649816695203]
相対バイアス(Relative Bias)は、LLMの振る舞いが特定のターゲットドメイン内の他のLLMとどのようにずれているかを評価するために設計された手法である。
本稿では,(1)埋め込み空間上の文表現を通して相対的バイアスパターンをキャプチャする埋め込み変換解析と,(2)言語モデルを用いて出力を相対的に評価するLLM-as-a-Judgeという2つの相補的手法を紹介する。
検証のための統計的テストに続くバイアスとアライメントのシナリオに関するいくつかのケーススタディに我々のフレームワークを適用し、この2つのスコアリング手法の間に強い整合性を見出した。
論文 参考訳(メタデータ) (2025-05-22T01:59:54Z) - LLM-Enhanced Black-Litterman Portfolio Optimization [30.37210534945387]
本研究では,大言語モデルからの回帰予測と予測の不確実性をブラック・リッターマンモデルのコア入力に変換する体系的なフレームワークを提案し,検証する。
S&P 500 構成成分のバックテストを通じて、最高性能の LLM によって駆動されるポートフォリオが、絶対的およびリスク調整された両項において従来のベースラインを大きく上回っていることを示す。
論文 参考訳(メタデータ) (2025-04-19T16:26:14Z) - Preference Leakage: A Contamination Problem in LLM-as-a-judge [69.96778498636071]
審査員としてのLLM(Large Language Models)とLLMに基づくデータ合成は、2つの基本的なLLM駆動型データアノテーション法として登場した。
本研究では, 合成データ生成器とLCMに基づく評価器の関連性に起因するLCM-as-a-judgeの汚染問題である選好リークを明らかにする。
論文 参考訳(メタデータ) (2025-02-03T17:13:03Z) - Investigating Implicit Bias in Large Language Models: A Large-Scale Study of Over 50 LLMs [0.0]
大規模言語モデル(LLM)は幅広いタスクで採用されている。
最近の研究では、LLMは明示的な偏見評価をパスしても暗黙の偏見を抑えることができることが示されている。
この研究は、新しい言語モデルやより大きな言語モデルが自動的にバイアスを減らさないことを強調している。
論文 参考訳(メタデータ) (2024-10-13T03:43:18Z) - Justice or Prejudice? Quantifying Biases in LLM-as-a-Judge [84.34545223897578]
多くの領域で優れているにもかかわらず、潜在的な問題は未解決のままであり、その信頼性と実用性の範囲を損なう。
提案手法は, LLM-as-a-Judgeにおける各種類のバイアスを定量化し, 解析する自動バイアス定量化フレームワークである。
当社の作業は、これらの問題に対処するステークホルダの必要性を強調し、LLM-as-a-Judgeアプリケーションで注意を喚起します。
論文 参考訳(メタデータ) (2024-10-03T17:53:30Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Financial Statement Analysis with Large Language Models [0.0]
我々はGPT4に標準化された匿名の財務文書を提供し、モデルを解析するように指示する。
このモデルでは、財務アナリストが収益の変化を予測できる能力を上回っている。
GPTの予測に基づく貿易戦略は、他のモデルに基づく戦略よりもシャープ比とアルファ率が高い。
論文 参考訳(メタデータ) (2024-07-25T08:36:58Z) - The Economic Implications of Large Language Model Selection on Earnings and Return on Investment: A Decision Theoretic Model [0.0]
我々は、異なる言語モデルによる金銭的影響を比較するために、決定論的アプローチを用いる。
この研究は、より高価なモデルの優れた精度が、特定の条件下でどのようにしてより大きな投資を正当化できるかを明らかにしている。
この記事では、テクノロジの選択を最適化しようとしている企業のためのフレームワークを提供する。
論文 参考訳(メタデータ) (2024-05-27T20:08:41Z) - Are LLMs Rational Investors? A Study on Detecting and Reducing the Financial Bias in LLMs [44.53203911878139]
大規模言語モデル(LLM)は、複雑な市場データとトレンドを解釈する金融分析において、ますます採用されている。
Financial Bias Indicators (FBI)は、Bias Unveiler、Bias Detective、Bias Tracker、Bias Antidoteといったコンポーネントを備えたフレームワークである。
我々は、23のLLMを評価し、財務因果知識に基づく非バイアス化手法を提案する。
論文 参考訳(メタデータ) (2024-02-20T04:26:08Z) - Enhancing Financial Sentiment Analysis via Retrieval Augmented Large
Language Models [11.154814189699735]
大規模な言語モデル (LLM) は様々なNLPタスクにおいて優れた性能を示した。
本稿では,金融感情分析のためのLLMフレームワークを提案する。
提案手法の精度は15%から48%向上し,F1得点を得た。
論文 参考訳(メタデータ) (2023-10-06T05:40:23Z) - Empowering Many, Biasing a Few: Generalist Credit Scoring through Large
Language Models [53.620827459684094]
大規模言語モデル(LLM)は、複数のタスクにまたがる強力な一般化能力を持つ信用スコアリングタスクにおいて大きな可能性を秘めている。
クレジットスコアリングのための LLM を探索する,初のオープンソース包括的フレームワークを提案する。
そこで我々は,各種金融リスク評価タスクの煩雑な要求に合わせて,指導チューニングによる最初の信用・リスク評価大言語モデル(CALM)を提案する。
論文 参考訳(メタデータ) (2023-10-01T03:50:34Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z) - Bayesian Bilinear Neural Network for Predicting the Mid-price Dynamics
in Limit-Order Book Markets [84.90242084523565]
伝統的な時系列計量法は、価格力学を駆動する多層相互作用の真の複雑さを捉えることができないことが多い。
最先端の2次最適化アルゴリズムを採用することで、時間的注意を払ってベイジアン双線形ニューラルネットワークを訓練する。
予測分布を用いて推定パラメータとモデル予測に関連する誤差や不確実性を解析することにより、ベイズモデルと従来のML代替品を徹底的に比較する。
論文 参考訳(メタデータ) (2022-03-07T18:59:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。