論文の概要: Ev-Trust: A Strategy Equilibrium Trust Mechanism for Evolutionary Games in LLM-Based Multi-Agent Services
- arxiv url: http://arxiv.org/abs/2512.16167v1
- Date: Thu, 18 Dec 2025 04:39:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.912647
- Title: Ev-Trust: A Strategy Equilibrium Trust Mechanism for Evolutionary Games in LLM-Based Multi-Agent Services
- Title(参考訳): A Strategy Equilibrium Trust Mechanism for Evolutionary Games in LLM-based Multi-Agent Services
- Authors: Shiduo Yang, Jiye Wang, Jiayu Qin, Jianbin Li, Yu Wang, Yuanhe Zhao, Kenan Guo,
- Abstract要約: Ev-トラスト(Ev-Trust)は、進化ゲーム理論に基づく戦略均衡信頼機構である。
Ev-Trustは、分散化された"Request-Response-Payment-Evaluation"サービスフレームワーク内で、エージェントが戦略を適応的に調整することを可能にする。
- 参考スコア(独自算出の注目度): 4.184213789790897
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rapid evolution of the Web toward an agent-centric paradigm, driven by large language models (LLMs), has enabled autonomous agents to reason, plan, and interact in complex decentralized environments. However, the openness and heterogeneity of LLM-based multi-agent systems also amplify the risks of deception, fraud, and misinformation, posing severe challenges to trust establishment and system robustness. To address this issue, we propose Ev-Trust, a strategy-equilibrium trust mechanism grounded in evolutionary game theory. This mechanism integrates direct trust, indirect trust, and expected revenue into a dynamic feedback structure that guides agents' behavioral evolution toward equilibria. Within a decentralized "Request-Response-Payment-Evaluation" service framework, Ev-Trust enables agents to adaptively adjust strategies, naturally excluding malicious participants while reinforcing high-quality collaboration. Furthermore, our theoretical derivation based on replicator dynamics equations proves the existence and stability of local evolutionary equilibria. Experimental results indicate that our approach effectively reflects agent trustworthiness in LLM-driven open service interaction scenarios, reduces malicious strategies, and increases collective revenue. We hope Ev-Trust can provide a new perspective on trust modeling for the agentic service web in group evolutionary game scenarios.
- Abstract(参考訳): 大規模言語モデル(LLM)によって駆動されるエージェント中心のパラダイムへのWebの急速な進化により、自律的エージェントは複雑な分散環境での推論、計画、相互作用が可能になった。
しかし、LLMベースのマルチエージェントシステムの開放性と不均一性は、詐欺、詐欺、誤報のリスクを増幅し、確立とシステムの堅牢性を信頼するために深刻な課題を提起する。
この問題に対処するため,進化ゲーム理論に基づく戦略均衡信頼機構であるEv-Trustを提案する。
このメカニズムは、直接信頼、間接信頼、予測収益を、エージェントの均衡に向けた行動進化を導く動的なフィードバック構造に統合する。
Ev-Trustは、分散型の"Request-Response-Payment-Evaluation"サービスフレームワーク内で、エージェントが戦略を適応的に調整し、悪意のある参加者を自然に排除し、高品質なコラボレーションを強化する。
さらに、レプリケータ力学方程式に基づく理論的導出は、局所進化平衡の存在と安定性を証明している。
実験結果から, LLM駆動のオープンサービスインタラクションシナリオにおいて, エージェントの信頼性を効果的に反映し, 悪意のある戦略を減らし, 集団収益を増大させることが示唆された。
Ev-Trustがグループ進化ゲームシナリオにおけるエージェントサービスWebの信頼モデリングの新しい視点を提供できることを願っている。
関連論文リスト
- From Competition to Coordination: Market Making as a Scalable Framework for Safe and Aligned Multi-Agent LLM Systems [5.165179548592513]
マルチエージェント大規模言語モデル(LLM)コーディネーションのための市場形成フレームワークを提案する。
この設定では、各エージェントは市場参加者として行動し、確率的信念を更新し、取引し、共有され、真実に満ちた結果へと収束する。
実証的に、本手法は、事実推論、倫理的判断、コモンセンス推論タスクにまたがって評価する。
論文 参考訳(メタデータ) (2025-11-18T16:47:15Z) - CoMAS: Co-Evolving Multi-Agent Systems via Interaction Rewards [80.78748457530718]
自己進化(Self-evolution)は、大規模言語モデル(LLM)ベースのエージェントが事前トレーニング後の能力を継続的に改善できるようにする上で、中心的な研究トピックである。
エージェントがエージェント間相互作用から学習することで自律的に改善できる新しいフレームワークであるCo-Evolving Multi-Agent Systems (CoMAS)を紹介する。
論文 参考訳(メタデータ) (2025-10-09T17:50:26Z) - A biologically Inspired Trust Model for Open Multi-Agent Systems that is Resilient to Rapid Performance Fluctuations [0.0]
既存の信頼モデルは、エージェントモビリティ、振る舞いの変化、コールドスタート問題に関連する課題に直面します。
我々は,信頼者が自身の能力を評価し,信頼データをローカルに保存する,生物学的にインスパイアされた信頼モデルを導入する。
この設計はモビリティサポートを改善し、通信オーバーヘッドを減らし、偽情報に抵抗し、プライバシーを保護する。
論文 参考訳(メタデータ) (2025-04-17T08:21:54Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - FedMM-X: A Trustworthy and Interpretable Framework for Federated Multi-Modal Learning in Dynamic Environments [0.0]
本稿では,分散化された動的環境における信頼性を確保するために,多モーダル推論によるフェデレーション学習を統一するフレームワークを提案する。
このアプローチはFedMM-Xと呼ばれ、クロスモーダル整合性チェック、クライアントレベルの解釈可能性メカニズム、動的信頼校正を利用する。
我々の発見は、現実の環境で堅牢で解釈可能で社会的に責任を負うAIシステムを開発するための道を開いた。
論文 参考訳(メタデータ) (2025-03-25T11:28:21Z) - A biologically inspired computational trust model for open multi-agent systems which is resilient to trustor population changes [0.0]
この研究は、シナプスの可塑性とヒト脳内の集合体の形成にインスパイアされた、分散化された計算信頼モデルであるCAに基づいている。
我々はCAモデルとFIREを比較し,オープンMASのための分散型信頼と評価モデルを構築した。
主な発見は、FIREが受託者人口の変化よりも優れているのに対して、CAは受託者人口の変化に対して回復力があることである。
論文 参考訳(メタデータ) (2024-04-13T10:56:32Z) - Agent Alignment in Evolving Social Norms [65.45423591744434]
本稿では,エージェント進化とアライメントのための進化的フレームワークであるEvolutionaryAgentを提案する。
社会規範が継続的に進化する環境では、エージェントは現在の社会規範に適応し、生存と増殖の確率が高くなる。
進化的エージェントは、一般的なタスクにおいてその能力を維持しながら、進化する社会規範と徐々に整合できることを示す。
論文 参考訳(メタデータ) (2024-01-09T15:44:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。