論文の概要: Responsibility-aware Strategic Reasoning in Probabilistic Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2411.00146v1
- Date: Thu, 31 Oct 2024 18:49:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:47:47.761774
- Title: Responsibility-aware Strategic Reasoning in Probabilistic Multi-Agent Systems
- Title(参考訳): 確率的マルチエージェントシステムにおける応答性を考慮したストラテジック推論
- Authors: Chunyan Mu, Muhammad Najib, Nir Oren,
- Abstract要約: 責任は、信頼できる自律システムの開発と展開において重要な役割を果たす。
本稿では,確率的交代時間論理の変種であるPATL+Rを提案する。
本稿では,PATL+Rで指定された結果を満たす共同戦略の合成手法を提案する。
- 参考スコア(独自算出の注目度): 1.7819574476785418
- License:
- Abstract: Responsibility plays a key role in the development and deployment of trustworthy autonomous systems. In this paper, we focus on the problem of strategic reasoning in probabilistic multi-agent systems with responsibility-aware agents. We introduce the logic PATL+R, a variant of Probabilistic Alternating-time Temporal Logic. The novelty of PATL+R lies in its incorporation of modalities for causal responsibility, providing a framework for responsibility-aware multi-agent strategic reasoning. We present an approach to synthesise joint strategies that satisfy an outcome specified in PATL+R, while optimising the share of expected causal responsibility and reward. This provides a notion of balanced distribution of responsibility and reward gain among agents. To this end, we utilise the Nash equilibrium as the solution concept for our strategic reasoning problem and demonstrate how to compute responsibility-aware Nash equilibrium strategies via a reduction to parametric model checking of concurrent stochastic multi-player games.
- Abstract(参考訳): 責任は、信頼できる自律システムの開発と展開において重要な役割を果たす。
本稿では,責任認識エージェントを用いた確率的マルチエージェントシステムにおける戦略的推論の問題に焦点をあてる。
本稿では,確率的交代時間論理の変種であるPATL+Rを提案する。
PATL+Rの新規性は、因果責任のためのモダリティの組み入れにあり、責任を意識したマルチエージェント戦略推論のための枠組みを提供する。
本稿では,PATL+Rで規定された結果を満たす共同戦略を最適化し,因果責任と報酬の共有を最適化する手法を提案する。
これは、エージェント間の責任と報酬のバランスの取れた分配の概念を提供する。
この目的のために、戦略推論問題の解概念としてナッシュ均衡を利用し、同時確率マルチプレイヤーゲームのパラメトリックモデル検定を減らし、責任を意識したナッシュ均衡戦略の計算方法を実証する。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Responsibility in a Multi-Value Strategic Setting [12.143925288392166]
責任はマルチエージェントシステムにおいて重要な概念であり、安全で信頼性があり倫理的なAIを作成する。
マルチエージェント・マルチバリュー設定における責任帰属モデルを提案する。
責任の考慮は、エージェントがその価値に沿った戦略を選択するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2024-10-22T17:51:13Z) - Computational Grounding of Responsibility Attribution and Anticipation in LTLf [25.988412601884182]
責任(Responsibility)とは、行動や戦略に関する反現実的な推論を含む多面的な概念である。
我々は, 勝敗, 支配的, 最善戦略の合成を含む, 反応合成の概念との関連性を示す。
論文 参考訳(メタデータ) (2024-10-18T15:38:33Z) - Agent-Oriented Planning in Multi-Agent Systems [54.429028104022066]
本稿では,高速なタスク分解とアロケーションプロセスを活用するマルチエージェントシステムにおけるエージェント指向計画のための新しいフレームワークを提案する。
提案フレームワークにフィードバックループを組み込んで,そのような問題解決プロセスの有効性と堅牢性をさらに向上させる。
論文 参考訳(メタデータ) (2024-10-03T04:07:51Z) - Attributing Responsibility in AI-Induced Incidents: A Computational Reflective Equilibrium Framework for Accountability [13.343937277604892]
AI(Artificial Intelligence)の広範な統合は、AI対応システムに関わるインシデントが発生した場合の責任と説明責任において、複雑な課題を導入している。
この研究は、すべての利害関係者に対して、一貫性があり倫理的に許容される責任帰属の枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-25T18:11:03Z) - K-Level Reasoning: Establishing Higher Order Beliefs in Large Language Models for Strategic Reasoning [76.3114831562989]
マルチエージェント環境で戦略を動的に適応させるためには、LLM(Large Language Model)エージェントが必要である。
我々は,「K-Level Reasoning with Large Language Models (K-R)」という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-02T16:07:05Z) - Anticipating Responsibility in Multiagent Planning [9.686474898346392]
責任予測(Responsibility Precipation)は、個々のエージェントのアクションが特定の結果に責任を負う可能性があるかどうかを決定するプロセスである。
これは、エージェントが検討する計画における責任を期待できるように、マルチエージェントの計画設定で使用できる。
論文 参考訳(メタデータ) (2023-07-31T13:58:49Z) - Game-Theoretical Perspectives on Active Equilibria: A Preferred Solution
Concept over Nash Equilibria [61.093297204685264]
マルチエージェント強化学習における効果的なアプローチは,エージェントの学習プロセスを検討し,今後の政策に影響を与えることである。
この新たな解の概念は、ナッシュ均衡のような標準解の概念が活性平衡の特別な場合である、という一般的なものである。
我々は,ゲーム理論の観点から,ナッシュ平衡が知られている実例を綿密に研究することにより,アクティブ平衡を解析する。
論文 参考訳(メタデータ) (2022-10-28T14:45:39Z) - Automated Temporal Equilibrium Analysis: Verification and Synthesis of
Multi-Player Games [5.230352342979224]
マルチエージェントシステムにおいて、合理的な検証問題は、システム内でどの時相論理特性が保持されるかをチェックすることである。
パリティゲームの集合の解に有理検証問題を還元する手法を提案する。
論文 参考訳(メタデータ) (2020-08-13T01:43:31Z) - Information Freshness-Aware Task Offloading in Air-Ground Integrated
Edge Computing Systems [49.80033982995667]
本稿では,空域統合マルチアクセスエッジコンピューティングシステムにおける情報更新性を考慮したタスクオフロードの問題について検討する。
サードパーティのリアルタイムアプリケーションサービスプロバイダは、InPからの限られた通信と計算リソースで、加入したモバイルユーザ(MU)にコンピューティングサービスを提供する。
本稿では,各MUに2つの個別の深度Q-networksを適用し,Q-factorと後Q-factorを近似する新しい深度強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-07-15T21:32:43Z) - Decentralized Reinforcement Learning: Global Decision-Making via Local
Economic Transactions [80.49176924360499]
我々は、シーケンシャルな意思決定問題を解決するために、単純で専門的で自己関心のあるエージェントの社会を指示する枠組みを確立する。
我々は分散強化学習アルゴリズムのクラスを導出する。
我々は、より効率的な移動学習のための社会固有のモジュラー構造の潜在的な利点を実証する。
論文 参考訳(メタデータ) (2020-07-05T16:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。