論文の概要: Strategies of cooperation and defection in five large language models
- arxiv url: http://arxiv.org/abs/2601.09849v1
- Date: Wed, 14 Jan 2026 20:13:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.884904
- Title: Strategies of cooperation and defection in five large language models
- Title(参考訳): 5大言語モデルにおける協調と欠陥の戦略
- Authors: Saptarshi Pal, Abhishek Mallela, Christian Hilbe, Lenz Pracher, Chiyu Wei, Feng Fu, Santiago Schnell, Martin A Nowak,
- Abstract要約: 大規模言語モデル(LLM)は、人間の意思決定をサポートするためにますます多くデプロイされている。
本報告では, 受刑者のジレンマにおいて, 5つの先行モデルが有意義な戦略を生み出すかどうかを考察する。
我々の実験は、現在のLLMが相互協力を瞬時に行う方法に光を当てた。
- 参考スコア(独自算出の注目度): 1.0249415982296137
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) are increasingly deployed to support human decision-making. This use of LLMs has concerning implications, especially when their prescriptions affect the welfare of others. To gauge how LLMs make social decisions, we explore whether five leading models produce sensible strategies in the repeated prisoner's dilemma, which is the main metaphor of reciprocal cooperation. First, we measure the propensity of LLMs to cooperate in a neutral setting, without using language reminiscent of how this game is usually presented. We record to what extent LLMs implement Nash equilibria or other well-known strategy classes. Thereafter, we explore how LLMs adapt their strategies to changes in parameter values. We vary the game's continuation probability, the payoff values, and whether the total number of rounds is commonly known. We also study the effect of different framings. In each case, we test whether the adaptations of the LLMs are in line with basic intuition, theoretical predictions of evolutionary game theory, and experimental evidence from human participants. While all LLMs perform well in many of the tasks, none of them exhibit full consistency over all tasks. We also conduct tournaments between the inferred LLM strategies and study direct interaction between LLMs in games over ten rounds with a known or unknown last round. Our experiments shed light on how current LLMs instantiate reciprocal cooperation.
- Abstract(参考訳): 大規模言語モデル(LLM)は、人間の意思決定をサポートするためにますます多くデプロイされている。
このLSMの使用は、特に処方薬が他人の福祉に影響を及ぼす場合に、影響する。
LLMがいかに社会的決定を下すかを評価するため、我々は、5つの主要なモデルが、相互協力の主要なメタファーである、繰り返し囚人のジレンマにおいて、賢明な戦略を生み出すかどうかを探求する。
まず、このゲームが通常どのように表現されるかという言語を使わずに、中性環境で協調するLLMの妥当性を測る。
我々は LLM が Nash equilibria や他のよく知られた戦略クラスを実装する程度に記録する。
その後, LLM がパラメータ値の変化にどのように適応するかを検討する。
我々は、ゲームの継続確率、支払い値、ラウンドの総数が一般に知られているかどうかを変える。
また、異なるフレーミングの効果についても検討する。
いずれの場合も、LLMの適応は、基本的な直観、進化ゲーム理論の理論的予測、そして人間の被験者による実験的証拠と一致しているかを検証する。
すべてのLLMは、多くのタスクでうまく機能するが、すべてのタスクに対して完全な一貫性を示すものはない。
また、推定LDM戦略間のトーナメントも行ない、前回の10ラウンド以上のゲームにおいて、LSM間の直接的相互作用を研究する。
我々の実験は、現在のLLMが相互協力を瞬時に行う方法に光を当てた。
関連論文リスト
- Corrupted by Reasoning: Reasoning Language Models Become Free-Riders in Public Goods Games [87.5673042805229]
大規模言語モデルは、アライメント、堅牢性、安全なデプロイメントを保証する上で、いかに自己関心と集合的幸福のバランスをとるかが重要な課題である。
我々は、行動経済学から制度的に選択した公共財ゲームに適応し、異なるLLMがいかに社会的ジレンマをナビゲートするかを観察することができる。
意外なことに、o1シリーズのようなLCMの推論は、協調にかなり苦労している。
論文 参考訳(メタデータ) (2025-06-29T15:02:47Z) - Scoring with Large Language Models: A Study on Measuring Empathy of Responses in Dialogues [3.2162648244439684]
本研究では,対話における応答の共感を測り,評価する上で,大規模言語モデルがいかに効果的かを調べるための枠組みを開発する。
我々の戦略は、最新かつ微調整されたLLMの性能を明示的で説明可能な特徴で近似することである。
以上の結果から,組込みのみを用いる場合,ジェネリックLLMに近い性能が得られることがわかった。
論文 参考訳(メタデータ) (2024-12-28T20:37:57Z) - LLMs May Not Be Human-Level Players, But They Can Be Testers: Measuring Game Difficulty with LLM Agents [10.632179121247466]
LLMエージェントを用いた一般的なゲームテストフレームワークを提案し、広くプレイされている戦略ゲームであるWordleとSlay the Spireでテストする。
LLMは平均的な人間プレイヤーほど動作しないかもしれないが、単純で汎用的なプロンプト技術によって誘導される場合、人間のプレイヤーが示す困難さと統計的に有意で強い相関関係を示す。
このことから, LLM は開発過程におけるゲーム難易度測定に有効である可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-01T18:40:43Z) - Large Language Models Playing Mixed Strategy Nash Equilibrium Games [1.060608983034705]
本稿では,混合戦略のナッシュ均衡と純粋戦略のナッシュ均衡が存在しないゲームにおいて,ナッシュ均衡を求めるための大規模言語モデルの能力に焦点を当てる。
この研究は、コード実行の可能性を備えたLLMの性能が大幅に向上していることを明らかにする。
LLMは、よく知られた標準ゲームにおいて顕著な熟練度を示すが、その性能は、同じゲームのわずかな変更に直面した時に低下する。
論文 参考訳(メタデータ) (2024-06-15T09:30:20Z) - GTBench: Uncovering the Strategic Reasoning Limitations of LLMs via Game-Theoretic Evaluations [87.99872683336395]
大規模言語モデル(LLM)は、重要な現実世界のアプリケーションに統合される。
本稿では,LLMの競合環境における推論能力について検討する。
まず,広く認識されている10のタスクを構成する言語駆動型環境であるGTBenchを提案する。
論文 参考訳(メタデータ) (2024-02-19T18:23:36Z) - Rephrase and Respond: Let Large Language Models Ask Better Questions for Themselves [57.974103113675795]
本稿では,Rephrase and Respond'(RaR)という手法を提案する。
RaRは、パフォーマンスを改善するためのシンプルだが効果的なプロンプト方法として機能する。
また,RaRは理論的にも経験的にも,一般的なChain-of-Thought(CoT)法と相補的であることを示す。
論文 参考訳(メタデータ) (2023-11-07T18:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。