論文の概要: An analysis of AI Decision under Risk: Prospect theory emerges in Large Language Models
- arxiv url: http://arxiv.org/abs/2508.00902v1
- Date: Mon, 28 Jul 2025 21:15:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 20:32:48.675495
- Title: An analysis of AI Decision under Risk: Prospect theory emerges in Large Language Models
- Title(参考訳): リスク下におけるAI決定の分析:大規模言語モデルに先進理論が現れる
- Authors: Kenneth Payne,
- Abstract要約: ダニエル・カーネマン(Daniel Kahneman)とエイモス・トヴェルスキー(Amos Tversky)は、人間が何かを失う危険を感じた時に、よりリスクを受け入れることを発見した。
私は、大規模言語モデルを用いたKahneman氏とTversky氏のランドマークである"プロスペクト理論"の最初のテストについて報告します。
予測理論は、これらのモデルがさまざまなシナリオにまたがってリスクの高い決定にどのようにアプローチするかを予測しているのがよくあります。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Judgment of risk is key to decision-making under uncertainty. As Daniel Kahneman and Amos Tversky famously discovered, humans do so in a distinctive way that departs from mathematical rationalism. Specifically, they demonstrated experimentally that humans accept more risk when they feel themselves at risk of losing something than when they might gain. I report the first tests of Kahneman and Tversky's landmark 'prospect theory' with Large Language Models, including today's state of the art chain-of-thought 'reasoners'. In common with humans, I find that prospect theory often anticipates how these models approach risky decisions across a range of scenarios. I also demonstrate that context is key to explaining much of the variance in risk appetite. The 'frame' through which risk is apprehended appears to be embedded within the language of the scenarios tackled by the models. Specifically, I find that military scenarios generate far larger 'framing effects' than do civilian settings, ceteris paribus. My research suggests, therefore, that language models the world, capturing our human heuristics and biases. But also that these biases are uneven - the idea of a 'frame' is richer than simple gains and losses. Wittgenstein's notion of 'language games' explains the contingent, localised biases activated by these scenarios. Finally, I use my findings to reframe the ongoing debate about reasoning and memorisation in LLMs.
- Abstract(参考訳): リスクの判断は不確実性の下での意思決定の鍵となる。
ダニエル・カーネマン(Daniel Kahneman)とアモス・トヴェルスキー(Amos Tversky)が発見したように、人間は数学的合理主義から外れた独特な方法でそれを行う。
具体的には、人間が何かを失う恐れがあると感じたときに、よりリスクを受け入れることを実験で実証した。
私は、Kahneman氏とTversky氏のランドマークである"プロスペクト理論"を、Large Language Modelsで最初にテストしたことを報告します。
人間と共通して、予測理論は、これらのモデルが様々なシナリオにまたがるリスクの高い決定にどのようにアプローチするかを予測している。
また、リスク食欲のばらつきを説明する上で、コンテキストが重要なことも示しています。
リスクが認識される"フレーム"は、モデルが取り組んだシナリオの言語に埋め込まれているように見える。
特に、軍事シナリオは民間のセッティングよりもはるかに大きな「フレーミング効果」を引き起こすと私は思う。
私の研究は、言語が世界をモデル化し、人間のヒューリスティックと偏見を捉えていることを示唆しています。
しかし、これらのバイアスは不均一である。'フレーム'という考え方は、単純な利益や損失よりも豊かである。
ウィトゲンシュタインの「言語ゲーム」の概念は、これらのシナリオによって活性化される連続的、局所的バイアスを説明する。
最後に、LLMにおける推論と記憶に関する議論を再考するために、私の研究結果を使用します。
関連論文リスト
- Strategic Intelligence in Large Language Models: Evidence from evolutionary Game Theory [0.0]
我々は,Large Language Models (LLMs) に対する説得力のある支持証拠を提示する。
私たちは、先進的なフロンティアAI企業OpenAI、Google、およびAnthropicのエージェントに対する標準的な戦略を練り、進化的なIDDトーナメントを初めて実施します。
以上の結果から, LLMは競争力が高く, 持続的であり, 複雑な生態系で増殖することさえあることが示唆された。
論文 参考訳(メタデータ) (2025-07-03T13:45:02Z) - Do LLMs Know When to Flip a Coin? Strategic Randomization through Reasoning and Experience [1.7223564681760168]
戦略的ランダム化はゲーム理論の鍵となる原理であるが、大きな言語モデル(LLM)では未探索のままである。
我々は,天地競馬に触発された新たなゼロサムゲームを提案し,ナッシュ均衡は最大エントロピー戦略に対応する。
より弱いモデルはプロンプトによらず決定論的であることを示し、強いモデルは明示的なヒントの下でランダム化を増大させることを示した。
論文 参考訳(メタデータ) (2025-06-21T05:26:33Z) - On the Thinking-Language Modeling Gap in Large Language Models [68.83670974539108]
言語と思考のモデリングには大きなギャップがあることが示される。
本稿では,このギャップを実証し緩和するために,Language-of-Thoughts (LoT) と呼ばれる新しいプロンプト手法を提案する。
論文 参考訳(メタデータ) (2025-05-19T09:31:52Z) - Perceptions of Linguistic Uncertainty by Language Models and Humans [26.69714008538173]
言語モデルが不確実性の言語表現を数値応答にどうマッピングするかを検討する。
10モデル中7モデルで不確実性表現を確率的応答に人間的な方法でマッピングできることが判明した。
この感度は、言語モデルは以前の知識に基づいてバイアスの影響を受けやすいことを示している。
論文 参考訳(メタデータ) (2024-07-22T17:26:12Z) - Towards Probing Speech-Specific Risks in Large Multimodal Models: A Taxonomy, Benchmark, and Insights [50.89022445197919]
本研究は,8つのリスクカテゴリーを敵意(悪意的皮肉と脅し),悪意的模倣(年齢,性別,民族),ステレオタイプ的バイアス(年齢,性別,民族)を対象とする音声特異的リスク分類法を提案する。
分類に基づいて,これらのリスクのカテゴリを検出するために,現在のLMM能力を評価するための小規模データセットを作成する。
論文 参考訳(メタデータ) (2024-06-25T10:08:45Z) - A Peek into Token Bias: Large Language Models Are Not Yet Genuine Reasoners [58.15511660018742]
本研究では,大規模言語モデル (LLM) が真の推論能力を持つかどうかを評価するための仮説検証フレームワークを提案する。
我々は,相補的な誤りとシロジカルな問題を特徴とする,注意深く制御された合成データセットを開発した。
論文 参考訳(メタデータ) (2024-06-16T19:22:53Z) - Large language models and linguistic intentionality [0.0]
代わりに、言語モデルが言語内容の最高のメタセマンティック理論によって与えられる基準を満たすかどうかを検討するべきだと論じる。
LLMが精神的な意図性のために妥当な条件を満たせなかったことが、アウトプットを意味のないものにしていると考えるのは間違いだと私は主張する。
論文 参考訳(メタデータ) (2024-04-15T08:37:26Z) - Navigating the OverKill in Large Language Models [84.62340510027042]
モデルがどのように処理し,クエリの安全性を判断するかを検討することで,過剰スキルの要因について検討する。
以上の結果から,モデル内にショートカットが存在することが明らかとなり,"キル"のような有害な単語が過剰に認識され,安全性が強調され,過度なスキルが増すことが示唆された。
我々は、この現象を緩和するために、トレーニングフリーでモデルに依存しないセルフコントラストデコーディング(Self-Contrastive Decoding、CD)を導入する。
論文 参考訳(メタデータ) (2024-01-31T07:26:47Z) - UNcommonsense Reasoning: Abductive Reasoning about Uncommon Situations [62.71847873326847]
異常、予期せぬ、そしてありそうもない状況をモデル化する能力について検討する。
予期せぬ結果のコンテキストが与えられた場合、このタスクは説明を生成するために故意に推論する必要がある。
私たちはUNcommonsenseという新しい英語コーパスをリリースします。
論文 参考訳(メタデータ) (2023-11-14T19:00:55Z) - Wigner and friends, a map is not the territory! Contextuality in multi-agent paradoxes [0.0]
マルチエージェントシナリオは、非古典的形式主義がエージェント間の知識を扱う必要がある場合に矛盾する結果を示す。
知識が信頼の概念と関係して扱われても、矛盾する結果はマルチエージェントのシナリオでも見ることができる。
論文 参考訳(メタデータ) (2023-05-12T22:51:13Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。