論文の概要: Spontaneous Giving and Calculated Greed in Language Models
- arxiv url: http://arxiv.org/abs/2502.17720v1
- Date: Mon, 24 Feb 2025 23:23:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:23:24.823044
- Title: Spontaneous Giving and Calculated Greed in Language Models
- Title(参考訳): 言語モデルにおける自発的なギビングと計算的欲求
- Authors: Yuxuan Li, Hirokazu Shirado,
- Abstract要約: 社会的ジレンマにおける推論がモデル結果に与える影響について検討する。
推論モデルが協調と規範の強制を減らし、個人の合理性を優先することを発見した。
我々の結果は、推論機能とソーシャルインテリジェンスを組み込んだAIアーキテクチャの必要性を示唆している。
- 参考スコア(独自算出の注目度): 5.754869099304775
- License:
- Abstract: Large language models, when trained with reinforcement learning, demonstrate advanced problem-solving capabilities through reasoning techniques like chain of thoughts and reflection. However, it is unclear how these reasoning capabilities extend to social intelligence. In this study, we investigate how reasoning influences model outcomes in social dilemmas. First, we examine the effects of chain-of-thought and reflection techniques in a public goods game. We then extend our analysis to six economic games on cooperation and punishment, comparing off-the-shelf non-reasoning and reasoning models. We find that reasoning models reduce cooperation and norm enforcement, prioritizing individual rationality. Consequently, groups with more reasoning models exhibit less cooperation and lower gains through repeated interactions. These behaviors parallel human tendencies of "spontaneous giving and calculated greed." Our results suggest the need for AI architectures that incorporate social intelligence alongside reasoning capabilities to ensure that AI supports, rather than disrupts, human cooperative intuition.
- Abstract(参考訳): 強化学習で訓練された大きな言語モデルは、思考の連鎖や反射のような推論技術を通じて高度な問題解決能力を示す。
しかし、これらの推論能力がソーシャルインテリジェンスにどのように拡張されるのかは不明だ。
本研究では,社会的ジレンマにおける推論がモデル結果に与える影響について検討した。
まず,公共グッズゲームにおけるチェーン・オブ・シンドロームとリフレクション・テクニックの効果について検討する。
そして、我々の分析を協力と処罰に関する6つの経済ゲームに拡張し、既成の非理化モデルと推論モデルを比較します。
推論モデルが協調と規範の強制を減らし、個人の合理性を優先することを発見した。
その結果、より多くの推論モデルを持つ群は、反復的な相互作用を通じて、協力や利得の低下を示す。
これらの行動は「自発的な寄付と計算された欲求」という人間の傾向と平行している。
我々の結果は、AIが人間の協力的な直感を乱すのではなく、確実にサポートするために、社会的知性と推論能力を組み合わせたAIアーキテクチャの必要性を示唆している。
関連論文リスト
- The Danger of Overthinking: Examining the Reasoning-Action Dilemma in Agentic Tasks [96.27754404942364]
大規模推論モデル(LRM)は、AI問題解決能力の突破口となるが、インタラクティブ環境での有効性は制限される可能性がある。
本稿では, LRMにおける過度な考察を紹介し, 分析する。
解析的麻痺,ローグ行動,早期解離の3つのパターンを観察した。
論文 参考訳(メタデータ) (2025-02-12T09:23:26Z) - Language-based game theory in the age of artificial intelligence [0.6187270874122921]
感情分析は、経済的な結果を超えた人間の行動を説明することができることを示す。
我々のメタ分析は、感情分析が経済的な結果を超えた人間の行動を説明することができることを示している。
この研究が、人間の決定における言語の重要性を強調する新しいゲーム理論アプローチの舞台となることを願っている。
論文 参考訳(メタデータ) (2024-03-13T20:21:20Z) - UNcommonsense Reasoning: Abductive Reasoning about Uncommon Situations [62.71847873326847]
異常、予期せぬ、そしてありそうもない状況をモデル化する能力について検討する。
予期せぬ結果のコンテキストが与えられた場合、このタスクは説明を生成するために故意に推論する必要がある。
私たちはUNcommonsenseという新しい英語コーパスをリリースします。
論文 参考訳(メタデータ) (2023-11-14T19:00:55Z) - The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Neural Theory-of-Mind? On the Limits of Social Intelligence in Large LMs [77.88043871260466]
私たちは、今日の最大の言語モデルのひとつに、このようなソーシャルインテリジェンスを最初から欠いていることを示しています。
我々は、人中心のNLPアプローチは、マインドの神経理論に対してより効果的であるかもしれないと結論づける。
論文 参考訳(メタデータ) (2022-10-24T14:58:58Z) - Cognitive Models as Simulators: The Case of Moral Decision-Making [9.024707986238392]
本研究では,AIシステムと対話し,人間の代わりに認知モデルからフィードバックを収集することを目的としたシミュレータとして,$textitcognitive Modelのアイデアを裏付ける。
ここでは、ウルティマトゥムゲーム(UG)の認知モデルと相互作用することで、強化学習エージェントに公正さについて学ばせることにより、道徳的意思決定の文脈でこの考え方を活用する。
我々の研究は、人間のシミュレーターとして認知モデルを使用することがAIシステムのトレーニングに効果的なアプローチであり、AIに貢献するための計算認知科学の重要な方法を提供することを示唆している。
論文 参考訳(メタデータ) (2022-10-08T23:14:14Z) - Modeling Human Behavior Part I -- Learning and Belief Approaches [0.0]
探索とフィードバックを通じて行動のモデルや方針を学ぶ手法に焦点を当てる。
次世代の自律的適応システムは、主にAIエージェントと人間がチームとして一緒に働く。
論文 参考訳(メタデータ) (2022-05-13T07:33:49Z) - Learning Human Rewards by Inferring Their Latent Intelligence Levels in
Multi-Agent Games: A Theory-of-Mind Approach with Application to Driving Data [18.750834997334664]
我々は、人間は有理論的であり、他人の意思決定過程を推論する際に異なる知能レベルを持っていると論じる。
学習中の人間の潜在知能レベルを推論する,新しいマルチエージェント逆強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-07T07:48:31Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。