論文の概要: Financial Stability Implications of Generative AI: Taming the Animal Spirits
- arxiv url: http://arxiv.org/abs/2510.01451v1
- Date: Wed, 01 Oct 2025 20:46:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 14:32:17.236792
- Title: Financial Stability Implications of Generative AI: Taming the Animal Spirits
- Title(参考訳): ジェネレーティブAIの経済的安定性 - 動物のスピリットの育成
- Authors: Anne Lundgaard Hansen, Seung Jung Lee,
- Abstract要約: 我々の結果は、AIエージェントが人間よりも合理的な決定をすることを示している。
AIによるトレーディングアドバイスへの依存度が高まると、資産価格バブルが減少する可能性がある。
最適な放牧は市場の規律を改善するが、この行動は金融安定の可能性を秘めている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper investigates the impact of the adoption of generative AI on financial stability. We conduct laboratory-style experiments using large language models to replicate classic studies on herd behavior in trading decisions. Our results show that AI agents make more rational decisions than humans, relying predominantly on private information over market trends. Increased reliance on AI-powered trading advice could therefore potentially lead to fewer asset price bubbles arising from animal spirits that trade by following the herd. However, exploring variations in the experimental settings reveals that AI agents can be induced to herd optimally when explicitly guided to make profit-maximizing decisions. While optimal herding improves market discipline, this behavior still carries potential implications for financial stability. In other experimental variations, we show that AI agents are not purely algorithmic, but have inherited some elements of human conditioning and bias.
- Abstract(参考訳): 本稿では,生産型AIの導入が金融安定に及ぼす影響について検討する。
我々は,大規模言語モデルを用いた実験室型実験を行い,取引決定における牧草行動の古典的研究を再現する。
我々の結果は、AIエージェントが人間よりも合理的な決定を下し、市場の動向よりも主に個人の情報に依存していることを示している。
そのため、AIによるトレーディングアドバイスへの依存度が高まると、群れに従うことによって取引される動物の精神から生じる資産価格バブルが減少する可能性がある。
しかし、実験的な設定のバリエーションを探索すると、AIエージェントが利益を最大化する決定を明示的に導くと、最適な牧場に誘導できることが分かる。
最適な放牧は市場の規律を改善するが、この行動は金融安定の可能性を秘めている。
他の実験的なバリエーションでは、AIエージェントは純粋にアルゴリズム的ではなく、人間の条件付けとバイアスのいくつかの要素を継承していることを示す。
関連論文リスト
- A Framework for Studying AI Agent Behavior: Evidence from Consumer Choice Experiments [24.983925189624816]
本稿では,オプション属性と説得的手がかりの制御によるエージェント選択の探索フレームワークを提案する。
我々はエージェントの決定が予測可能かつ実質的に変化していることを発見し、エージェントが強い偏見を持つ選択者であることを明らかにした。
この感受性はリスクと機会の両方を明らかにしている:リスク、エージェントの消費者は人間の偏見を継承し増幅する可能性がある;機会、消費者の選択はAIエージェントの行動科学に強力なテストベッドを提供するからだ。
論文 参考訳(メタデータ) (2025-09-30T00:05:23Z) - The Ultimate Test of Superintelligent AI Agents: Can an AI Balance Care and Control in Asymmetric Relationships? [11.983461426678522]
シェパードテストは、超知能人工エージェントの道徳的および関係的な次元を評価するための新しい概念テストである。
私たちは、AIが知的エージェントを操作、育む、そして機器的に使用しない能力を示すときに、重要な、潜在的に危険な、知能のしきい値を越えることを主張する。
これには、自己利益と従属エージェントの幸福の間の道徳的なトレードオフを評価する能力が含まれる。
論文 参考訳(メタデータ) (2025-06-02T15:53:56Z) - How Performance Pressure Influences AI-Assisted Decision Making [52.997197698288936]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Assessing Large Language Models' ability to predict how humans balance
self-interest and the interest of others [0.0]
生成的人工知能(AI)は意思決定プロセスに革命をもたらす大きな可能性を秘めている。
生成AIを活用することで、人間はデータ駆動の洞察と予測の恩恵を受けることができる。
しかし、AIが意思決定の信頼できるアシスタントになるためには、自己利益と他者の利益のバランスを捉えることが不可欠である。
論文 参考訳(メタデータ) (2023-07-21T13:23:31Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Do the Rewards Justify the Means? Measuring Trade-Offs Between Rewards
and Ethical Behavior in the MACHIAVELLI Benchmark [61.43264961005614]
我々は、50万以上のリッチで多様なシナリオを含む134個のChoose-Your-Own-Adventureゲームのベンチマークを開発する。
我々は、エージェントの傾向をパワー・シーキングと評価し、不使用を生じさせ、倫理的違反を犯す。
以上の結果から,エージェントは有能かつ道徳的に行動できることが示唆された。
論文 参考訳(メタデータ) (2023-04-06T17:59:03Z) - Limited or Biased: Modeling Sub-Rational Human Investors in Financial
Markets [2.913033886371052]
我々は、強化学習を用いて、人間のサブリレータリティの5つの側面を組み込んだフレキシブルモデルを導入する。
我々は,手作り市場シナリオとSHAP値分析を用いて,サブ専門家の行動を評価する。
論文 参考訳(メタデータ) (2022-10-16T15:50:26Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。