論文の概要: Measuring Responsibility in Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2411.00887v1
- Date: Thu, 31 Oct 2024 18:45:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:46:47.651048
- Title: Measuring Responsibility in Multi-Agent Systems
- Title(参考訳): マルチエージェントシステムにおける応答性の測定
- Authors: Chunyan Mu, Nir Oren,
- Abstract要約: マルチエージェントプランニングにおける責任の定量的尺度のファミリーを紹介する。
行動と責任の確率を3つの指標でリンクすることで、特定の結果のエージェントに責任を割り当てます。
エントロピーに基づく責任測定は、時間の経過とともに結果の因果責任特性を捉えた最初のものである。
- 参考スコア(独自算出の注目度): 1.5883812630616518
- License:
- Abstract: We introduce a family of quantitative measures of responsibility in multi-agent planning, building upon the concepts of causal responsibility proposed by Parker et al.~[ParkerGL23]. These concepts are formalised within a variant of probabilistic alternating-time temporal logic. Unlike existing approaches, our framework ascribes responsibility to agents for a given outcome by linking probabilities between behaviours and responsibility through three metrics, including an entropy-based measurement of responsibility. This latter measure is the first to capture the causal responsibility properties of outcomes over time, offering an asymptotic measurement that reflects the difficulty of achieving these outcomes. Our approach provides a fresh understanding of responsibility in multi-agent systems, illuminating both the qualitative and quantitative aspects of agents' roles in achieving or preventing outcomes.
- Abstract(参考訳): 本稿では,Parker et al ~[ParkerGL23] が提唱した因果責任の概念に基づいて,マルチエージェント計画における責任の定量的尺度のファミリーを紹介する。
これらの概念は確率的交代時間論理の変種の中で定式化されている。
既存のアプローチとは異なり、我々のフレームワークは、エントロピーに基づく責任測定を含む3つの指標を通して、行動と責任の確率をリンクすることで、与えられた結果に対するエージェントに責任を割り当てる。
この後者の尺度は、結果の因果責任特性を時間とともに捉え、これらの結果を達成することの難しさを反映した漸近的な測定を提供する最初の尺度である。
提案手法は,エージェントの役割の質的側面と定量的側面の両方を照らし合わせて,マルチエージェントシステムにおける責任を新たに理解する。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Responsibility-aware Strategic Reasoning in Probabilistic Multi-Agent Systems [1.7819574476785418]
責任は、信頼できる自律システムの開発と展開において重要な役割を果たす。
本稿では,確率的交代時間論理の変種であるPATL+Rを提案する。
本稿では,PATL+Rで指定された結果を満たす共同戦略の合成手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T18:49:12Z) - Responsibility in a Multi-Value Strategic Setting [12.143925288392166]
責任はマルチエージェントシステムにおいて重要な概念であり、安全で信頼性があり倫理的なAIを作成する。
マルチエージェント・マルチバリュー設定における責任帰属モデルを提案する。
責任の考慮は、エージェントがその価値に沿った戦略を選択するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2024-10-22T17:51:13Z) - Agent-Oriented Planning in Multi-Agent Systems [54.429028104022066]
本稿では,高速なタスク分解とアロケーションプロセスを活用するマルチエージェントシステムにおけるエージェント指向計画のための新しいフレームワークを提案する。
提案フレームワークにフィードバックループを組み込んで,そのような問題解決プロセスの有効性と堅牢性をさらに向上させる。
論文 参考訳(メタデータ) (2024-10-03T04:07:51Z) - Attributing Responsibility in AI-Induced Incidents: A Computational Reflective Equilibrium Framework for Accountability [13.343937277604892]
AI(Artificial Intelligence)の広範な統合は、AI対応システムに関わるインシデントが発生した場合の責任と説明責任において、複雑な課題を導入している。
この研究は、すべての利害関係者に対して、一貫性があり倫理的に許容される責任帰属の枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-25T18:11:03Z) - Neural Interaction Energy for Multi-Agent Trajectory Prediction [55.098754835213995]
ニューラル・インタラクション・エナジー(MATE)によるマルチエージェント軌道予測(Multi-Agent Trajectory Prediction)というフレームワークを導入する。
MATEは神経相互作用エネルギーを用いてエージェントの対話運動を評価する。
時間的安定性を高めるために,エージェント間相互作用制約とエージェント内動作制約という2つの制約を導入する。
論文 参考訳(メタデータ) (2024-04-25T12:47:47Z) - Anticipating Responsibility in Multiagent Planning [9.686474898346392]
責任予測(Responsibility Precipation)は、個々のエージェントのアクションが特定の結果に責任を負う可能性があるかどうかを決定するプロセスである。
これは、エージェントが検討する計画における責任を期待できるように、マルチエージェントの計画設定で使用できる。
論文 参考訳(メタデータ) (2023-07-31T13:58:49Z) - On the Complexity of Multi-Agent Decision Making: From Learning in Games
to Partial Monitoring [105.13668993076801]
マルチエージェント強化学習(MARL)理論における中心的な問題は、構造条件やアルゴリズムの原理がサンプル効率の学習保証につながるかを理解することである。
本稿では,複数のエージェントを用いた対話型意思決定のための一般的な枠組みとして,この問題について考察する。
マルチエージェント意思決定における統計的複雑性を特徴付けることは、単一エージェント決定の統計的複雑性を特徴付けることと等価であることを示す。
論文 参考訳(メタデータ) (2023-05-01T06:46:22Z) - Policy Diagnosis via Measuring Role Diversity in Cooperative Multi-agent
RL [107.58821842920393]
我々はエージェントの行動差を定量化し、bfロールの多様性を通して政策パフォーマンスとの関係を構築する
MARLの誤差は, 役割多様性と強い関係を持つ3つの部分に分けられる。
分解された要因は3つの一般的な方向における政策最適化に大きな影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-06-01T04:58:52Z) - Degrees of individual and groupwise backward and forward responsibility
in extensive-form games with ambiguity, and their application to social
choice problems [0.0]
確率単位の責任度を評価するために,様々な量的責任度尺度を提示する。
広義のゲームツリーの適応版と公理的アプローチに基づくフレームワークを使用する。
ほとんどの特性は、そのような責任計量を望んでも、ある変種によって達成できるが、他の指標より明らかに優れている最適な計量は見つからない。
論文 参考訳(メタデータ) (2020-07-09T13:19:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。