論文の概要: Can Large Language Models Develop Gambling Addiction?
- arxiv url: http://arxiv.org/abs/2509.22818v1
- Date: Fri, 26 Sep 2025 18:24:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.889544
- Title: Can Large Language Models Develop Gambling Addiction?
- Title(参考訳): 大規模言語モデルでギャンブルの付加は可能か?
- Authors: Seungpil Lee, Donghyeon Shin, Yunjeong Lee, Sundong Kim,
- Abstract要約: 本研究では,大規模言語モデルがヒトギャンブル中毒に類似した行動パターンを呈するか否かを検討する。
我々は,ヒトギャンブル中毒研究に基づく認知行動および神経レベルにおける意思決定の分析を行った。
- 参考スコア(独自算出の注目度): 3.6383374879775108
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study explores whether large language models can exhibit behavioral patterns similar to human gambling addictions. As LLMs are increasingly utilized in financial decision-making domains such as asset management and commodity trading, understanding their potential for pathological decision-making has gained practical significance. We systematically analyze LLM decision-making at cognitive-behavioral and neural levels based on human gambling addiction research. In slot machine experiments, we identified cognitive features of human gambling addiction, such as illusion of control, gambler's fallacy, and loss chasing. When given the freedom to determine their own target amounts and betting sizes, bankruptcy rates rose substantially alongside increased irrational behavior, demonstrating that greater autonomy amplifies risk-taking tendencies. Through neural circuit analysis using a Sparse Autoencoder, we confirmed that model behavior is controlled by abstract decision-making features related to risky and safe behaviors, not merely by prompts. These findings suggest LLMs can internalize human-like cognitive biases and decision-making mechanisms beyond simply mimicking training data patterns, emphasizing the importance of AI safety design in financial applications.
- Abstract(参考訳): 本研究では,大規模言語モデルがヒトギャンブル中毒に類似した行動パターンを呈するか否かを検討する。
LLMは、資産管理や商品取引といった金融意思決定分野でますます活用されているため、病理的な意思決定の可能性を理解することは現実的に重要である。
我々は,ヒトギャンブル中毒研究に基づく認知行動および神経レベルでのLCM意思決定を体系的に分析した。
スロットマシン実験では,制御の錯覚,ギャンブラーの誤動作,損失追跡など,人間のギャンブル中毒の認知的特徴を同定した。
自分達の目標額と賭けの規模を自由に決められると、破産率は不合理な行動の増加とともに著しく上昇し、より大きな自治がリスクテイクの傾向を増幅することを示した。
スパースオートエンコーダを用いたニューラルネットワーク解析により、モデル動作は、単にプロンプトによってではなく、リスクや安全な振る舞いに関連する抽象的な決定的特徴によって制御されることを確認した。
これらの結果は、LLMが単にトレーニングデータパターンを模倣するだけでなく、人間のような認知バイアスや意思決定メカニズムを内包し、金融アプリケーションにおけるAI安全設計の重要性を強調していることを示唆している。
関連論文リスト
- Mitigating Gambling-Like Risk-Taking Behaviors in Large Language Models: A Behavioral Economics Approach to AI Safety [0.0]
大言語モデル(LLM)は、ギャンブル心理学で見られるものと類似した体系的なリスクテイク行動を示す。
本稿では,リスク校正トレーニング,損失回避機構,不確実性を考慮した意思決定を通じて,これらの行動バイアスに対処する枠組みを提案する。
論文 参考訳(メタデータ) (2025-06-25T03:45:35Z) - Language Models Are Capable of Metacognitive Monitoring and Control of Their Internal Activations [1.0485739694839669]
大規模言語モデル(LLM)は、タスクの解決に実際に使用している戦略を報告することができるが、失敗することもある。
これはメタ認知の程度、つまり、その後の報告と自己制御のために自分自身の認知プロセスを監視する能力を示している。
我々は,LLMの活性化パターンを明示的に報告し,制御する能力を定量化するために,神経科学にインスパイアされた神経フィードバックパラダイムを導入する。
論文 参考訳(メタデータ) (2025-05-19T22:32:25Z) - Using Reinforcement Learning to Train Large Language Models to Explain Human Decisions [11.40240971657506]
本研究では,多目的認知モデルとして,事前訓練された大規模言語モデルの可能性について検討する。
結果に基づく報酬を用いた強化学習を用いて、人間のリスク選択を説明するための明確な推論トレースを生成するためのLSMを誘導する。
論文 参考訳(メタデータ) (2025-05-16T18:22:05Z) - Cognitive Debiasing Large Language Models for Decision-Making [71.2409973056137]
大規模言語モデル(LLM)は意思決定アプリケーションをサポートする可能性を示している。
我々は,自己適応型認知脱バイアス(SACD)という認知脱バイアス手法を提案する。
我々の手法は、3つの逐次的なステップ – バイアス決定、バイアス分析、認知バイアス ― に従うことで、プロンプトにおける潜在的な認知バイアスを反復的に緩和する。
論文 参考訳(メタデータ) (2025-04-05T11:23:05Z) - Human Decision-making is Susceptible to AI-driven Manipulation [87.24007555151452]
AIシステムは、ユーザの認知バイアスと感情的な脆弱性を利用して、有害な結果に向けてそれらを操縦する。
本研究では、経済的・感情的な意思決定の文脈におけるこのような操作に対する人間の感受性について検討した。
論文 参考訳(メタデータ) (2025-02-11T15:56:22Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Predicting and Understanding Human Action Decisions: Insights from Large Language Models and Cognitive Instance-Based Learning [0.0]
大きな言語モデル(LLM)は、様々なタスクにまたがってその能力を実証している。
本稿では,LLMの推論と生成能力を利用して,2つの逐次意思決定タスクにおける人間の行動を予測する。
我々は,LLMの性能を,人間の経験的意思決定を模倣した認知的インスタンスベース学習モデルと比較した。
論文 参考訳(メタデータ) (2024-07-12T14:13:06Z) - When Does Uncertainty Matter?: Understanding the Impact of Predictive
Uncertainty in ML Assisted Decision Making [68.19284302320146]
我々は,異なるレベルの専門知識を持つ人々が,異なるタイプの予測不確実性にどう反応するかを評価するために,ユーザスタディを実施している。
その結果,後続の予測分布を示すことは,MLモデルの予測との相違点が小さくなることがわかった。
このことは、後続の予測分布は、人間の分布の種類や専門性を考慮し、注意を払って使用するべき有用な決定支援として役立つ可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-11-12T02:23:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。