論文の概要: On Blame Attribution for Accountable Multi-Agent Sequential Decision
Making
- arxiv url: http://arxiv.org/abs/2107.11927v1
- Date: Mon, 26 Jul 2021 02:22:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 16:11:05.929978
- Title: On Blame Attribution for Accountable Multi-Agent Sequential Decision
Making
- Title(参考訳): マルチエージェントシークエンシャル意思決定のためのブラム属性について
- Authors: Stelios Triantafyllou, Adish Singla, Goran Radanovic
- Abstract要約: 協調型マルチエージェントシーケンシャル意思決定の文脈における責任帰属について検討する。
我々は、Shapley値のようなよく知られた非難帰属の手法が、パフォーマンスにインセンティブを与えていないことを示す。
そこで我々は,それが満足する特性の集合に特有の,新たな因果帰属法を提案する。
- 参考スコア(独自算出の注目度): 29.431349181232203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Blame attribution is one of the key aspects of accountable decision making,
as it provides means to quantify the responsibility of an agent for a decision
making outcome. In this paper, we study blame attribution in the context of
cooperative multi-agent sequential decision making. As a particular setting of
interest, we focus on cooperative decision making formalized by Multi-Agent
Markov Decision Processes (MMDP), and we analyze different blame attribution
methods derived from or inspired by existing concepts in cooperative game
theory. We formalize desirable properties of blame attribution in the setting
of interest, and we analyze the relationship between these properties and the
studied blame attribution methods. Interestingly, we show that some of the well
known blame attribution methods, such as Shapley value, are not
performance-incentivizing, while others, such as Banzhaf index, may over-blame
agents. To mitigate these value misalignment and fairness issues, we introduce
a novel blame attribution method, unique in the set of properties it satisfies,
which trade-offs explanatory power (by under-blaming agents) for the
aforementioned properties. We further show how to account for uncertainty about
agents' decision making policies, and we experimentally: a) validate the
qualitative properties of the studied blame attribution methods, and b) analyze
their robustness to uncertainty.
- Abstract(参考訳): ブローム帰属は、意思決定結果に対するエージェントの責任を定量化する手段を提供するため、説明責任決定の重要な側面の1つである。
本稿では,協調型マルチエージェントシーケンシャル意思決定の文脈における責任帰属について検討する。
特に,マルチエージェントマルコフ決定プロセス(mmdp)によって形式化された協調意思決定に焦点をあて,協調ゲーム理論における既存の概念から派生し,着想を得た異なる責任帰属法を分析した。
我々は,責任帰属の望ましい性質を利害設定において定式化し,これらの特性と研究対象の責任帰属方法との関係を分析する。
興味深いことに、shapley値のようなよく知られた責任帰属メソッドのいくつかはパフォーマンスにインセンティブを与えていないが、banzhaf indexのような他のメソッドはオーバーブレイエージェントである可能性がある。
これらの価値の誤認と公平性の問題を軽減するため、上記の性質について説明力(アンダーブレードエージェントによる)をトレードオフする特性セットに特有の、新たな責任帰属法を導入する。
さらに,エージェントの意思決定方針の不確実性を説明する方法を示し,a) 分析された責任帰属手法の質的特性を検証し,b) それらの不確実性に対する堅牢性を分析する。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Principal-Agent Reward Shaping in MDPs [50.914110302917756]
主要な問題とは、ある政党が他の政党に代わって行動し、利害対立を引き起こすことである。
本研究では,主役とエージェントが異なる報酬関数を持つ2人プレイのスタックゲームについて検討し,エージェントは両プレイヤーに対してMDPポリシーを選択する。
この結果は,有限の地平線を持つ木と決定論的決定過程を確立した。
論文 参考訳(メタデータ) (2023-12-30T18:30:44Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Agent-Specific Effects: A Causal Effect Propagation Analysis in Multi-Agent MDPs [13.524274041966539]
エージェント特異的効果(ASE)は、エージェントの作用が他のエージェントを介して伝播する結果に与える影響を測定する新しい因果量である。
我々は,敗血症管理環境を含むシミュレーションベースのテストベッドを用いて,cf-ASEの有用性を実験的に評価した。
論文 参考訳(メタデータ) (2023-10-17T15:12:56Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - On the Complexity of Multi-Agent Decision Making: From Learning in Games
to Partial Monitoring [105.13668993076801]
マルチエージェント強化学習(MARL)理論における中心的な問題は、構造条件やアルゴリズムの原理がサンプル効率の学習保証につながるかを理解することである。
本稿では,複数のエージェントを用いた対話型意思決定のための一般的な枠組みとして,この問題について考察する。
マルチエージェント意思決定における統計的複雑性を特徴付けることは、単一エージェント決定の統計的複雑性を特徴付けることと等価であることを示す。
論文 参考訳(メタデータ) (2023-05-01T06:46:22Z) - Towards Computationally Efficient Responsibility Attribution in
Decentralized Partially Observable MDPs [5.825190876052148]
責任帰属(Responsibility Attribution)は、説明責任のあるマルチエージェント意思決定の鍵となる概念である。
エージェントの責任度を効率的に近似するモンテカルロ木探索(MCTS)方式を提案する。
シミュレーションベースのテストベッドを用いて,提案アルゴリズムの有効性を実験的に評価した。
論文 参考訳(メタデータ) (2023-02-24T14:56:25Z) - Application of Causal Inference to Analytical Customer Relationship
Management in Banking and Insurance [6.228766191647919]
統計学において、因果関係は長年研究され、応用されてきたが、人工知能(AI)についてはあまり詳細には研究されていない。
本研究では、分析的顧客関係管理問題を解決するための説明可能性を提供するために、因果推論の原則を適用した。
ローンのデフォルト、保険詐欺検出、クレジットカード詐欺検出データセットの良質な対策が作成された。
論文 参考訳(メタデータ) (2022-08-19T05:57:58Z) - Actual Causality and Responsibility Attribution in Decentralized
Partially Observable Markov Decision Processes [22.408657774650358]
我々はこれらの概念を、不確実性の下でのマルチエージェントシーケンシャルな意思決定のための広く使われている枠組みの下で研究する。
実際の因果関係は特定の結果に焦点を当て、関心の成果を実現する上で重要な決定(行動)を識別することを目的としている。
責任帰属(Responsibility attribution)は相補的であり、意思決定者(エージェント)がこの結果にどの程度の責任を持つかを特定することを目的としている。
論文 参考訳(メタデータ) (2022-04-01T09:22:58Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Causal Strategic Linear Regression [5.672132510411465]
信用スコアや学術試験のような多くの予測的な意思決定シナリオでは、意思決定者は、決定ルールを「ゲーム」するためにエージェントの正当性を説明するモデルを構築しなければならない。
私たちは、変更可能な属性の関数として、モデリングエージェントの結果の同時処理に参加します。
3つの異なる意思決定目標を最適化する意思決定ルールを学習するための効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-02-24T03:57:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。