論文の概要: In Trust We Survive: Emergent Trust Learning
- arxiv url: http://arxiv.org/abs/2603.17564v1
- Date: Wed, 18 Mar 2026 10:12:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.636567
- Title: In Trust We Survive: Emergent Trust Learning
- Title(参考訳): In Trust We Survive:Emergent Trust Learning
- Authors: Qianpu Chen, Giulio Barbero, Mike Preuss, Derya Soydaner,
- Abstract要約: 我々は,既存のAIエージェントにプラグイン可能な,軽量で信頼に基づく制御アルゴリズムであるEmergent Trust Learning (ETL)を紹介する。
各エージェントは、メモリ、探索、アクション選択を変調する、コンパクトな内部信頼状態を保持する。
- 参考スコア(独自算出の注目度): 1.2999518604217852
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We introduce Emergent Trust Learning (ETL), a lightweight, trust-based control algorithm that can be plugged into existing AI agents. It enables these to reach cooperation in competitive game environments under shared resources. Each agent maintains a compact internal trust state, which modulates memory, exploration, and action selection. ETL requires only individual rewards and local observations and incurs negligible computational and communication overhead. We evaluate ETL in three environments: In a grid-based resource world, trust-based agents reduce conflicts and prevent long-term resource depletion while achieving competitive individual returns. In a hierarchical Tower environment with strong social dilemmas and randomised floor assignments, ETL sustains high survival rates and recovers cooperation even after extended phases of enforced greed. In the Iterated Prisoner's Dilemma, the algorithm generalises to a strategic meta-game, maintaining cooperation with reciprocal opponents while avoiding long-term exploitation by defectors. Code will be released upon publication.
- Abstract(参考訳): 我々は,既存のAIエージェントにプラグイン可能な,軽量で信頼に基づく制御アルゴリズムであるEmergent Trust Learning (ETL)を紹介する。
これにより、共有リソースの下での競争的なゲーム環境での協力に到達することができる。
各エージェントは、メモリ、探索、アクション選択を変調する、コンパクトな内部信頼状態を保持する。
ETLは個々の報酬と局所的な観測のみを必要とし、無視できる計算と通信のオーバーヘッドを発生させる。
グリッドベースのリソースの世界では、信頼ベースのエージェントが競合を減らし、競合する個々のリターンを達成しつつ長期のリソース枯渇を防ぐ。
強い社会的ジレンマとランダムな床配置を持つ階層型タワー環境において、ETLは高い生存率を維持し、強制欲求の延長フェーズ後も協力を回復する。
Iterated Prisoner's Dilemmaでは、アルゴリズムは戦略的なメタゲームに一般化し、相互の相手との協力を維持しながら、欠陥者による長期的な搾取を避ける。
コードは出版時に公開される。
関連論文リスト
- Multi-Agent Deep Reinforcement Learning for Collaborative UAV Relay Networks under Jamming Atatcks [36.380478794869234]
本稿では,この課題を,分散実行トレーニング(CTDE)フレームワークを用いて解決したMARL(Multi-Agent Reinforcement Learning)問題として定式化する。
提案手法はベースラインを著しく上回り,システム全体のスループットを約50%向上し,同時にほぼゼロの衝突速度を実現した。
重要な発見は、エージェントが明示的なプログラミングなしに創発的なアンチジャミング戦略を開発することである。
論文 参考訳(メタデータ) (2025-12-09T08:11:21Z) - Learning Robust Social Strategies with Large Language Models [7.697496386429445]
強化学習は,大規模言語モデル(LLM)を単一エージェント体制で整列させるのに有効である。
マルチエージェント設定における標準RLは、しばしば欠陥のある自己関心のポリシーに収束することを示す。
RLが不均衡に収束する傾向に対処するため、近年の対向学習認識アルゴリズムAdvantage Alignmentを適用した。
論文 参考訳(メタデータ) (2025-11-24T18:43:46Z) - AdvEvo-MARL: Shaping Internalized Safety through Adversarial Co-Evolution in Multi-Agent Reinforcement Learning [78.5751183537704]
AdvEvo-MARLは、タスクエージェントに安全性を内部化する、共進化型マルチエージェント強化学習フレームワークである。
外部ガードに頼るのではなく、AdvEvo-MARLは攻撃者と防御者を共同で最適化する。
論文 参考訳(メタデータ) (2025-10-02T02:06:30Z) - Multi-Agent Reinforcement Learning for Task Offloading in Wireless Edge Networks [3.065057842316041]
エッジコンピューティングシステムでは、自律エージェントは共有リソースを競いながら、高速なローカル決定をしなければならない。
本稿では,各エージェントが制約付きマルコフ決定プロセス(CMDP)を解き,共有制約ベクトルを通じて暗黙的にコーディネートする分散フレームワークを提案する。
安全強化学習を用いて、エージェントは、地域とグローバルの両方の目標を満たすポリシーを学ぶ。
論文 参考訳(メタデータ) (2025-09-01T08:47:36Z) - Semantic Chain-of-Trust: Autonomous Trust Orchestration for Collaborator Selection via Hypergraph-Aided Agentic AI [57.58120823855315]
本稿では,新たなセマンティック・チェーン・オブ・トラストの概念に基づく自律的信頼オーケストレーション手法を提案する。
我々の技術はエージェントAIとハイパーグラフを用いてデバイス間の信頼関係を確立し維持する。
実験により,提案手法が資源効率の高い信頼評価を実現することを示す。
論文 参考訳(メタデータ) (2025-07-31T13:53:25Z) - Corrupted by Reasoning: Reasoning Language Models Become Free-Riders in Public Goods Games [87.5673042805229]
大規模言語モデルは、アライメント、堅牢性、安全なデプロイメントを保証する上で、いかに自己関心と集合的幸福のバランスをとるかが重要な課題である。
我々は、行動経済学から制度的に選択した公共財ゲームに適応し、異なるLLMがいかに社会的ジレンマをナビゲートするかを観察することができる。
意外なことに、o1シリーズのようなLCMの推論は、協調にかなり苦労している。
論文 参考訳(メタデータ) (2025-06-29T15:02:47Z) - Position Paper: Towards Open Complex Human-AI Agents Collaboration Systems for Problem Solving and Knowledge Management [0.15039745292757667]
我々は,Human-AI Agents Collaboration Systems(HAACS)のための技術に依存しない,コラボレーション可能なスタンスを提案する。
7次元のコラボスピンと人間とエージェントのコントラストを通して経験的なパターンを読み取ることで、欠落したピースを識別する。
アドホック接着剤を使わず,バイオサイバネティック拡張をスケッチすることなく,新たなエージェントプロトコルとの相互運用性を示す。
論文 参考訳(メタデータ) (2025-04-24T05:57:03Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - Cooperate or Collapse: Emergence of Sustainable Cooperation in a Society of LLM Agents [101.17919953243107]
GovSimは、大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するために設計された生成シミュレーションプラットフォームである。
最強のLSMエージェントを除く全てのエージェントは、GovSimの持続的均衡を達成することができず、生存率は54%以下である。
道徳的思考の理論である「大学化」に基づく推論を活用するエージェントは、持続可能性を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。