論文の概要: A Financial Brain Scan of the LLM
- arxiv url: http://arxiv.org/abs/2508.21285v1
- Date: Fri, 29 Aug 2025 01:12:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.910269
- Title: A Financial Brain Scan of the LLM
- Title(参考訳): LLMの財務脳スキャン
- Authors: Hui Chen, Antoine Didisheim, Luciano Somoza, Hanqing Tian,
- Abstract要約: ブレインスキャン」技術により、大型言語モデル(LLM)の「ブレインスキャン」が可能に
このアプローチは, LLMが生み出す経済予測を感情, 技術的分析, タイミングといった概念にマッピングできることを示す。
また、モデルをリスク回避、楽観的、悲観的とみなすことで、研究者がバイアスを修正またはシミュレートできることも示しています。
- 参考スコア(独自算出の注目度): 3.880635110621931
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emerging techniques in computer science make it possible to "brain scan" large language models (LLMs), identify the plain-English concepts that guide their reasoning, and steer them while holding other factors constant. We show that this approach can map LLM-generated economic forecasts to concepts such as sentiment, technical analysis, and timing, and compute their relative importance without reducing performance. We also show that models can be steered to be more or less risk-averse, optimistic, or pessimistic, which allows researchers to correct or simulate biases. The method is transparent, lightweight, and replicable for empirical research in the social sciences.
- Abstract(参考訳): コンピュータサイエンスにおける新興技術は、大きな言語モデル(LLM)を「脳スキャン」し、推論を導く平易な英語の概念を特定し、他の要素を一定に保ちながらそれらを操ることを可能にする。
本手法は, LLM生成した経済予測を感情, 技術分析, タイミングなどの概念にマッピングし, 性能を低下させることなく, 相対的重要性を計算可能であることを示す。
また、モデルをリスク回避、楽観的、悲観的とみなすことで、研究者がバイアスを修正またはシミュレートできることも示しています。
この方法は透明で軽量で、社会科学の実証研究にも適している。
関連論文リスト
- Computational Thinking Reasoning in Large Language Models [69.28428524878885]
計算思考モデル(CTM)は、計算思考パラダイムを大規模言語モデル(LLM)に組み込んだ新しいフレームワークである。
ライブコード実行は推論プロセスにシームレスに統合され、CTMが計算によって考えることができる。
CTMは、精度、解釈可能性、一般化可能性の観点から、従来の推論モデルとツール拡張ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-06-03T09:11:15Z) - A Survey of Slow Thinking-based Reasoning LLMs using Reinforced Learning and Inference-time Scaling Law [29.763080554625216]
本調査は「スロー思考」を模倣した大規模言語モデル(LLM)の最近の進歩を考察する。
LLMは、数学の推論、視覚的推論、診断、マルチエージェントの議論などの複雑なタスクの間、動的に計算資源をスケーリングすることに焦点を当てている。
論文 参考訳(メタデータ) (2025-05-05T14:14:59Z) - Do Large Language Models Truly Grasp Mathematics? An Empirical Exploration From Cognitive Psychology [13.964263002704582]
提案手法は,Chains of Thoughtプロンプトを用いても,修正されたCRT問題を解く際の誤り率が高いことを示す。
具体的には、従来の質問と比べて平均精度が最大50%低下した。
この発見は、LLMが人間に匹敵する真の数学的推論能力を持っているという信念に挑戦する。
論文 参考訳(メタデータ) (2024-10-19T05:01:56Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。