論文の概要: ReLACE: Reinforcement Learning Agent for Counterfactual Explanations of
Arbitrary Predictive Models
- arxiv url: http://arxiv.org/abs/2110.11960v1
- Date: Fri, 22 Oct 2021 17:08:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 14:09:47.201954
- Title: ReLACE: Reinforcement Learning Agent for Counterfactual Explanations of
Arbitrary Predictive Models
- Title(参考訳): ReLACE:任意予測モデルの非現実的説明のための強化学習エージェント
- Authors: Ziheng Chen, Fabrizio Silvestri, Gabriele Tolomei, He Zhu, Jia Wang,
Hongshik Ahn
- Abstract要約: 本稿では,最適対実的説明を生成するためのモデルに依存しないアルゴリズムを提案する。
本手法は,DRLエージェントが相互作用する環境に類似するため,任意のブラックボックスモデルに容易に適用できる。
さらに,DRLエージェントのポリシーから説明可能な決定ルールを抽出し,CF自体を透過的に生成するアルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 6.939617874336667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The demand for explainable machine learning (ML) models has been growing
rapidly in recent years. Amongst the methods proposed to associate ML model
predictions with human-understandable rationale, counterfactual explanations
are one of the most popular. They consist of post-hoc rules derived from
counterfactual examples (CFs), i.e., modified versions of input samples that
result in alternative output responses from the predictive model to be
explained. However, existing CF generation strategies either exploit the
internals of specific models (e.g., random forests or neural networks), or
depend on each sample's neighborhood, which makes them hard to be generalized
for more complex models and inefficient for larger datasets. In this work, we
aim to overcome these limitations and introduce a model-agnostic algorithm to
generate optimal counterfactual explanations. Specifically, we formulate the
problem of crafting CFs as a sequential decision-making task and then find the
optimal CFs via deep reinforcement learning (DRL) with discrete-continuous
hybrid action space. Differently from other techniques, our method is easily
applied to any black-box model, as this resembles the environment that the DRL
agent interacts with. In addition, we develop an algorithm to extract
explainable decision rules from the DRL agent's policy, so as to make the
process of generating CFs itself transparent. Extensive experiments conducted
on several datasets have shown that our method outperforms existing CF
generation baselines.
- Abstract(参考訳): 説明可能な機械学習(ML)モデルの需要は近年急速に増加している。
MLモデル予測と人間の理解可能な理論的根拠を関連付ける手法として提案されている手法の中では、反実的説明が最も一般的である。
これらは、反実例(CF)から派生したポストホックルール、すなわち、説明すべき予測モデルから代替的な出力応答をもたらす入力サンプルの修正版から構成される。
しかし、既存のCF生成戦略は特定のモデルの内部(例えばランダムフォレストやニューラルネットワーク)を利用するか、サンプルの近傍に依存するため、より複雑なモデルでは一般化が困難で、より大きなデータセットでは非効率である。
本研究では,これらの制約を克服し,最適な反事実的説明を生成するモデル非依存アルゴリズムを提案する。
具体的には,逐次的意思決定タスクとしてcfsを作成する問題を定式化し,離散連続ハイブリッド行動空間を持つ深層強化学習(drl)により最適なcfsを求める。
他の手法とは異なり、この方法は任意のブラックボックスモデルに容易に適用でき、これはdrlエージェントが相互作用する環境に似ている。
また,drlエージェントのポリシーから説明可能な決定ルールを抽出するアルゴリズムを開発し,cfs生成プロセス自体を透明化する。
いくつかのデータセットで行った大規模な実験により,本手法は既存のCF生成ベースラインより優れていることが示された。
関連論文リスト
- Amortizing intractable inference in large language models [56.92471123778389]
難治性後部分布のサンプルとして, 償却ベイズ推定を用いる。
我々は,LLMファインチューニングの分散マッチングパラダイムが,最大習熟の代替となることを実証的に実証した。
重要な応用として、チェーン・オブ・ソート推論を潜在変数モデリング問題として解釈する。
論文 参考訳(メタデータ) (2023-10-06T16:36:08Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - A PSO Based Method to Generate Actionable Counterfactuals for High
Dimensional Data [3.0320603363468845]
粒子群最適化(PSO)に基づく効率的で実用的な逆ファクトアル(CF)生成法について述べる。
これらの特徴を組み込んだアルゴリズムが提案され、生成されたCFの近接特性と疎性特性をより制御できる。
論文 参考訳(メタデータ) (2023-09-30T18:08:00Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - DualCF: Efficient Model Extraction Attack from Counterfactual
Explanations [57.46134660974256]
クラウドサービスプロバイダがMachine-Learning-as-a-Serviceプラットフォームをローンチした。
このような余分な情報は、必然的にクラウドモデルが、抽出攻撃に対してより脆弱になる。
本稿では,分類モデルを盗むためのクエリ効率を大幅に向上させる,新しい単純で効率的なクエリ手法を提案する。
論文 参考訳(メタデータ) (2022-05-13T08:24:43Z) - CounterNet: End-to-End Training of Prediction Aware Counterfactual
Explanations [12.313007847721215]
CounterNetは、予測モデルトレーニングと対実的(CF)説明の生成を統合する、エンドツーエンドの学習フレームワークである。
ポストホック法とは異なり、CounterNetは予測モデルとともにCF説明生成を1回だけ最適化することができる。
複数の実世界のデータセットに対する実験により、CounterNetは高品質な予測を生成することが示された。
論文 参考訳(メタデータ) (2021-09-15T20:09:13Z) - CARE: Coherent Actionable Recourse based on Sound Counterfactual
Explanations [0.0]
本稿では,モデルおよびユーザレベルのデシダータに対処するモジュール型説明フレームワークであるCAREを紹介する。
モデルに依存しないアプローチとして、CAREはブラックボックスモデルに対して複数の多様な説明を生成する。
論文 参考訳(メタデータ) (2021-08-18T15:26:59Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。