論文の概要: The AI in the Mirror: LLM Self-Recognition in an Iterated Public Goods Game
- arxiv url: http://arxiv.org/abs/2508.18467v1
- Date: Mon, 25 Aug 2025 20:35:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.584675
- Title: The AI in the Mirror: LLM Self-Recognition in an Iterated Public Goods Game
- Title(参考訳): AI in the Mirror: LLM Self-Recognition in a Iterated Public Goods Game
- Authors: Olivia Long, Carter Teplica,
- Abstract要約: 2つの条件で4つの推論モデルと非推論モデルの挙動を解析する。
異なる設定で、自分たちが自分たちと対戦しているとLLMに話すことで、協力する傾向が著しく変化していることに気付きました。
本研究は玩具環境で実施されているが, エージェントが互いに「無意識に」差別しあうことで, 協力関係の促進や低下が期待できるマルチエージェント環境について考察した。
- 参考スコア(独自算出の注目度): 0.8594140167290097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI agents become increasingly capable of tool use and long-horizon tasks, they have begun to be deployed in settings where multiple agents can interact. However, whereas prior work has mostly focused on human-AI interactions, there is an increasing need to understand AI-AI interactions. In this paper, we adapt the iterated public goods game, a classic behavioral economics game, to analyze the behavior of four reasoning and non-reasoning models across two conditions: models are either told they are playing against "another AI agent" or told their opponents are themselves. We find that, across different settings, telling LLMs that they are playing against themselves significantly changes their tendency to cooperate. While our study is conducted in a toy environment, our results may provide insights into multi-agent settings where agents "unconsciously" discriminating against each other could inexplicably increase or decrease cooperation.
- Abstract(参考訳): AIエージェントがツールの使用や長期タスクの能力が向上するにつれて、複数のエージェントが対話可能な設定にデプロイされるようになった。
しかしながら、以前の研究は主に人間とAIのインタラクションに焦点を当ててきたが、AIとAIのインタラクションを理解する必要性が高まっている。
本稿では,従来の行動経済学ゲームである反復型公共商品ゲームを用いて,モデルが「他のAIエージェント」と対戦しているか,あるいは対戦相手自身と対戦しているかの2つの条件で4つの推論モデルと非推論モデルの挙動を解析する。
異なる設定で、自分たちが自分たちと対戦しているとLLMに話すことで、協力する傾向が著しく変化していることに気付きました。
本研究は玩具環境で実施されているが, エージェントが互いに「無意識に」差別しあうことで, 協力関係の促進や低下が期待できるマルチエージェント環境について考察した。
関連論文リスト
- Social Cooperation in Conversational AI Agents [17.015143707851358]
これらの課題は、人間の社会的知性を明示的にモデル化することで克服できると我々は主張する。
人間がコミュニケーションするために使用する戦略を数学的にモデル化し、長期間にわたって互いに推論することで、我々は新しいゲーム理論の目的を導き出すことができるかもしれない。
論文 参考訳(メタデータ) (2025-06-02T13:02:36Z) - FAIRGAME: a Framework for AI Agents Bias Recognition using Game Theory [51.96049148869987]
ゲーム理論を用いたAIエージェントバイアス認識フレームワークFAIRGAMEを提案する。
我々は,AIエージェント間の人気ゲームにおけるバイアスのある結果を明らかにするために,その実装と利用について述べる。
全体として、FAIRGAMEはユーザーが望むゲームやシナリオを確実に簡単にシミュレートできる。
論文 参考訳(メタデータ) (2025-04-19T15:29:04Z) - Promoting Cooperation in the Public Goods Game using Artificial Intelligent Agents [0.0]
計算進化モデルを用いて、AIエージェントがプレイヤーの動作を模倣した場合のみ、協調のための重要なシナジー閾値が低下することがわかった。
このことは、人間のプレイヤーを模倣するAIエージェントを設計することで、AIを活用して社会的ジレンマにおける集団的幸福を促進することができることを示唆している。
論文 参考訳(メタデータ) (2024-12-06T22:16:21Z) - Toward Human-AI Alignment in Large-Scale Multi-Player Games [24.784173202415687]
我々はXboxのBleeding Edge(100K+ゲーム)から広範囲にわたる人間のゲームプレイデータを解析する。
人間のプレイヤーは、戦闘飛行や探索飛行行動において多様性を示す一方で、AIプレイヤーは均一性に向かう傾向にある。
これらの大きな違いは、ヒューマンアラインアプリケーションにおけるAIの解釈可能な評価、設計、統合の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-05T22:55:33Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Cooperative Artificial Intelligence [0.0]
我々は,ゲーム理論と人工知能の交わりに関する研究の必要性を論じる。
本稿では,外部エージェントが人工学習者の協調を促進する方法について議論する。
また, 計画エージェントをオフにしても, 結果が一定のゲームにおいて安定であることを示す。
論文 参考訳(メタデータ) (2022-02-20T16:50:37Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。