論文の概要: Multi-Agent Algorithmic Recourse
- arxiv url: http://arxiv.org/abs/2110.00673v1
- Date: Fri, 1 Oct 2021 22:54:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 06:05:44.462358
- Title: Multi-Agent Algorithmic Recourse
- Title(参考訳): マルチエージェントアルゴリズムリコース
- Authors: Andrew O'Brien, Edward Kim
- Abstract要約: 一つのエージェント環境の仮定が緩和された場合、アルゴリズム的リコースへの現在のアプローチは、ある倫理的に望ましい性質を保証するのに失敗することを示す。
我々は,マルチエージェント環境下でのアルゴリズム的リコースを実現するための,ゲーム理論にインスパイアされた新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.23389716633927
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent adoption of machine learning as a tool in real world decision
making has spurred interest in understanding how these decisions are being
made. Counterfactual Explanations are a popular interpretable machine learning
technique that aims to understand how a machine learning model would behave if
given alternative inputs. Many explanations attempt to go further and recommend
actions an individual could take to obtain a more desirable output from the
model. These recommendations are known as algorithmic recourse. Past work has
largely focused on the effect algorithmic recourse has on a single agent. In
this work, we show that when the assumption of a single agent environment is
relaxed, current approaches to algorithmic recourse fail to guarantee certain
ethically desirable properties. Instead, we propose a new game theory inspired
framework for providing algorithmic recourse in a multi-agent environment that
does guarantee these properties.
- Abstract(参考訳): 最近、現実世界の意思決定におけるツールとしての機械学習の採用は、これらの決定がどのように行われるかを理解することに関心を喚起している。
Counterfactual Explanationsは、代替入力が与えられた場合、機械学習モデルがどのように振る舞うかを理解することを目的とした、一般的な解釈可能な機械学習技術である。
多くの説明は、さらに前進し、モデルからより望ましいアウトプットを得るために個人が行うアクションを推奨しようとする。
これらのリコメンデーションはアルゴリズムリコースとして知られている。
過去の研究は、アルゴリズム的リコースが1つのエージェントに与える影響に主に焦点を当ててきた。
本研究では, 単一エージェント環境の仮定が緩和された場合, アルゴリズム・リコースへの現在のアプローチは, 倫理的に望ましい性質を保証できないことを示す。
そこで我々は,これらの特性を保証したマルチエージェント環境において,新たなゲーム理論にインスパイアされたフレームワークを提案する。
関連論文リスト
- VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - Inapplicable Actions Learning for Knowledge Transfer in Reinforcement
Learning [3.194414753332705]
学習不能な動作はRLアルゴリズムのサンプル効率を大幅に向上させることを示す。
得られた知識の伝達性のおかげで、学習プロセスをより効率的にするために、他のタスクやドメインで再利用することができる。
論文 参考訳(メタデータ) (2022-11-28T17:45:39Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Emergent Instabilities in Algorithmic Feedback Loops [3.4711828357576855]
教師-学生の学習シミュレーションを用いて,推薦アルゴリズムにおけるアルゴリズムの相違について検討する。
結果は、人とアルゴリズム間の相互作用から創発的な行動を説明する必要性を強調している。
論文 参考訳(メタデータ) (2022-01-18T18:58:03Z) - Synthesizing explainable counterfactual policies for algorithmic
recourse with program synthesis [18.485744170172545]
ユーザ記述と因果グラフから説明可能な対応行動列を出力するプログラムを学習する。
合成および実世界のデータセットに対する実験的評価は、我々のアプローチが効果的な介入をいかに生み出すかを示す。
論文 参考訳(メタデータ) (2022-01-18T17:16:45Z) - An actor-critic algorithm with policy gradients to solve the job shop
scheduling problem using deep double recurrent agents [1.3812010983144802]
ジョブショップスケジューリング問題(JSSP)に対する深層強化学習手法を提案する。
目的は、ジョブやマシンの数によって異なるJSSPインスタンスのディストリビューションについて学べるgreedyのようなものを構築することである。
予想通り、モデルはある程度は、トレーニングで使用されるものと異なる分布から生じるより大きな問題やインスタンスに一般化することができる。
論文 参考訳(メタデータ) (2021-10-18T07:55:39Z) - Robust Predictable Control [149.71263296079388]
提案手法は,従来の手法よりもはるかに厳密な圧縮を実現し,標準的な情報ボトルネックよりも最大5倍高い報酬が得られることを示す。
また,本手法はより堅牢で,新しいタスクをより一般化したポリシーを学習することを示す。
論文 参考訳(メタデータ) (2021-09-07T17:29:34Z) - Modularity in Reinforcement Learning via Algorithmic Independence in
Credit Assignment [79.5678820246642]
提案手法は, 事前決定の順序に対して, スパース変化のみを必要とする伝達問題に対して, 政策段階の手法よりも, より標本効率が高いことを示す。
我々は最近提案された社会的意思決定の枠組みをマルコフ決定プロセスよりもよりきめ細かい形式主義として一般化する。
論文 参考訳(メタデータ) (2021-06-28T21:29:13Z) - Model-Agnostic Explanations using Minimal Forcing Subsets [11.420687735660097]
そこで本研究では,モデル決定に欠かせない最小限のトレーニングサンプルを同定する,モデルに依存しない新しいアルゴリズムを提案する。
本アルゴリズムは,制約付き最適化問題を解くことにより,このような「欠かせない」サンプルの集合を反復的に同定する。
結果から,本アルゴリズムは局所モデルの振る舞いをよりよく理解する上で,効率的かつ容易に記述できるツールであることがわかった。
論文 参考訳(メタデータ) (2020-11-01T22:45:16Z) - Discovering Reinforcement Learning Algorithms [53.72358280495428]
強化学習アルゴリズムは、いくつかのルールの1つに従ってエージェントのパラメータを更新する。
本稿では,更新ルール全体を検出するメタラーニング手法を提案する。
これには、一連の環境と対話することで、"何を予測するか"(例えば、値関数)と"どのように学習するか"の両方が含まれている。
論文 参考訳(メタデータ) (2020-07-17T07:38:39Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。