論文の概要: Artificial Finance: How AI Thinks About Money
- arxiv url: http://arxiv.org/abs/2507.10933v1
- Date: Tue, 15 Jul 2025 02:54:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:02.960478
- Title: Artificial Finance: How AI Thinks About Money
- Title(参考訳): AIがお金についてどう考えるか:人工知能ファイナンス
- Authors: Orhan Erdem, Ragavi Pobbathi Ashok,
- Abstract要約: 大規模言語モデル(LLM)が,世界中の参加者の反応を体系的に比較することにより,金融意思決定にどのようにアプローチするかを示す。
まず, LLM はリスクニュートラルな意思決定パターンを示し, 抽選型質問に直面する場合, 期待値計算に適合する選択を優先する。
国家間の類似性を調べると、LLMの集合反応はタンザニアの参加者のものと最もよく似ていることが分かる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we explore how large language models (LLMs) approach financial decision-making by systematically comparing their responses to those of human participants across the globe. We posed a set of commonly used financial decision-making questions to seven leading LLMs, including five models from the GPT series(GPT-4o, GPT-4.5, o1, o3-mini), Gemini 2.0 Flash, and DeepSeek R1. We then compared their outputs to human responses drawn from a dataset covering 53 nations. Our analysis reveals three main results. First, LLMs generally exhibit a risk-neutral decision-making pattern, favoring choices aligned with expected value calculations when faced with lottery-type questions. Second, when evaluating trade-offs between present and future, LLMs occasionally produce responses that appear inconsistent with normative reasoning. Third, when we examine cross-national similarities, we find that the LLMs' aggregate responses most closely resemble those of participants from Tanzania. These findings contribute to the understanding of how LLMs emulate human-like decision behaviors and highlight potential cultural and training influences embedded within their outputs.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)が,世界中の参加者の反応を体系的に比較することにより,金融意思決定にどのようにアプローチするかを検討する。
我々は,GPTシリーズ(GPT-4o,GPT-4.5,o1,o3-mini),Gemini 2.0 Flash,DeepSeek R1)の5つのモデルを含む,主要な7つのLCMに対して,一般的な金融意思決定質問を提示した。
そして、53カ国を対象とするデータセットから得られた人間の反応と比較した。
私たちの分析では3つの主な結果が明らかになっている。
第一に、LLMは一般的にリスク中立的な意思決定パターンを示し、宝くじ型質問に直面した場合、期待値計算に適合する選択を好んでいる。
第二に、現在と将来のトレードオフを評価するとき、LLMは時々、規範的推論と矛盾しているように見える応答を生成する。
第3に、国家間の類似性を調べると、LLMの集合反応はタンザニアの参加者のものと最もよく似ていることが分かる。
これらの知見は、LLMが人間のような意思決定行動をどのようにエミュレートするかの理解に寄与し、そのアウトプットに埋め込まれた潜在的な文化的・訓練的影響を浮き彫りにする。
関連論文リスト
- Do Large Language Models Understand Morality Across Cultures? [0.5356944479760104]
本研究では,大規模言語モデルが道徳的視点における異文化間差異や類似性をどの程度捉えているかを検討する。
以上の結果から,現在のLLMは多文化的モラル変動の完全なスペクトルを再現できないことが示唆された。
これらの知見は, LLMのバイアス軽減と文化的代表性向上に向けた, より堅牢なアプローチの必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-07-28T20:25:36Z) - Your AI, Not Your View: The Bias of LLMs in Investment Analysis [55.328782443604986]
大規模言語モデル(LLM)は、事前訓練されたパラメトリック知識とリアルタイム市場データとの相違により、しばしば知識の衝突に直面している。
本稿では, LLMに基づく投資分析において, 確認バイアスの定量的分析を行った。
われわれは、大口株に対する一貫した選好と、ほとんどのモデルにおけるコントラリアン戦略を観察する。
論文 参考訳(メタデータ) (2025-07-28T16:09:38Z) - Reasoning or Overthinking: Evaluating Large Language Models on Financial Sentiment Analysis [1.3812010983144802]
我々は,様々な大規模言語モデル (LLM) が経済的文脈における人間ラベルの感情とどのように一致しているかを評価する。
本研究は, モデル設計のプロンプトや本質的設計による推論が, この課題における性能を向上させるものではないことを示唆している。
驚くべきことに、モデルと手法の最も正確かつ人間に整合した組み合わせは、CoT(Chain-of-Thought)を推進しないGPT-4oであった。
論文 参考訳(メタデータ) (2025-06-05T02:47:23Z) - Decoding the Mind of Large Language Models: A Quantitative Evaluation of Ideology and Biases [0.276240219662896]
大規模言語モデル(LLM)を評価するための新しいフレームワークを提案する。
このフレームワークをChatGPTとGeminiに適用することにより、LLMは一般的に多くのトピックについて一貫した意見を保っているが、そのイデオロギーはモデルや言語によって異なることがわかった。
どちらのモデルも問題のある偏見、非倫理的または不公平な主張を示しており、社会に悪影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2025-05-18T00:52:06Z) - CLASH: Evaluating Language Models on Judging High-Stakes Dilemmas from Multiple Perspectives [3.7731230532888036]
CLASH (Character perspective-based LLM Assessments in situations with High-Stakes) は、345のハイインパクトジレンマと3,795の個人視点からなるデータセットである。
GPT-4oやClaude-Sonnetのような最強のモデルでさえ、決定が曖昧であるべき状況を特定する上で、50%未満の精度を達成する。
論文 参考訳(メタデータ) (2025-04-15T02:54:16Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - CFinBench: A Comprehensive Chinese Financial Benchmark for Large Language Models [61.324062412648075]
CFinBenchは、中国の文脈下での大規模言語モデル(LLM)の財務知識を評価するための評価ベンチマークである。
この質問は、43の第二級カテゴリーにまたがる99,100の質問で構成されており、3つの質問タイプがある: シングルチョイス、マルチチョイス、そして判断である。
結果は、GPT4といくつかの中国指向モデルがベンチマークをリードし、平均精度は60.16%であることを示している。
論文 参考訳(メタデータ) (2024-07-02T14:34:36Z) - FinBen: A Holistic Financial Benchmark for Large Language Models [75.09474986283394]
FinBenは、24の財務タスクにまたがる36のデータセットを含む、最初の大規模なオープンソース評価ベンチマークである。
FinBenは、幅広いタスクとデータセット、ストックトレーディングの最初の評価、新しいエージェントと検索可能な生成(RAG)の評価、およびテキスト要約、質問応答、株式トレーディングのための3つの新しいオープンソース評価データセットを提供する。
論文 参考訳(メタデータ) (2024-02-20T02:16:16Z) - Are Machines Better at Complex Reasoning? Unveiling Human-Machine Inference Gaps in Entailment Verification [41.330719056639616]
本研究は,多文前提における係り受け検証問題について考察する。
一貫性のないモデル生成有理数の検出などの現代のNLP問題は、複雑なマルチホップ推論を必要とする。
論文 参考訳(メタデータ) (2024-02-06T04:14:09Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Surveying (Dis)Parities and Concerns of Compute Hungry NLP Research [75.84463664853125]
我々は,3つのトピック,すなわち環境影響,株式,およびピアレビューへの影響に関する懸念を定量化するための最初の試みを提供する。
我々は、高齢者、アカデミック、産業に関して、異なるグループと異なるグループ内の既存の(異なる)格差を捉えます。
私たちは、発見された格差を軽減するためのレコメンデーションを考案しました。
論文 参考訳(メタデータ) (2023-06-29T12:44:53Z) - Revisiting the Reliability of Psychological Scales on Large Language Models [62.57981196992073]
本研究の目的は,大規模言語モデルにパーソナリティアセスメントを適用することの信頼性を明らかにすることである。
GPT-3.5、GPT-4、Gemini-Pro、LLaMA-3.1などのモデル毎の2,500設定の分析により、様々なLCMがビッグファイブインベントリに応答して一貫性を示すことが明らかになった。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。