論文の概要: ReLACE: Reinforcement Learning Agent for Counterfactual Explanations of
Arbitrary Predictive Models
- arxiv url: http://arxiv.org/abs/2110.11960v1
- Date: Fri, 22 Oct 2021 17:08:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 14:09:47.201954
- Title: ReLACE: Reinforcement Learning Agent for Counterfactual Explanations of
Arbitrary Predictive Models
- Title(参考訳): ReLACE:任意予測モデルの非現実的説明のための強化学習エージェント
- Authors: Ziheng Chen, Fabrizio Silvestri, Gabriele Tolomei, He Zhu, Jia Wang,
Hongshik Ahn
- Abstract要約: 本稿では,最適対実的説明を生成するためのモデルに依存しないアルゴリズムを提案する。
本手法は,DRLエージェントが相互作用する環境に類似するため,任意のブラックボックスモデルに容易に適用できる。
さらに,DRLエージェントのポリシーから説明可能な決定ルールを抽出し,CF自体を透過的に生成するアルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 6.939617874336667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The demand for explainable machine learning (ML) models has been growing
rapidly in recent years. Amongst the methods proposed to associate ML model
predictions with human-understandable rationale, counterfactual explanations
are one of the most popular. They consist of post-hoc rules derived from
counterfactual examples (CFs), i.e., modified versions of input samples that
result in alternative output responses from the predictive model to be
explained. However, existing CF generation strategies either exploit the
internals of specific models (e.g., random forests or neural networks), or
depend on each sample's neighborhood, which makes them hard to be generalized
for more complex models and inefficient for larger datasets. In this work, we
aim to overcome these limitations and introduce a model-agnostic algorithm to
generate optimal counterfactual explanations. Specifically, we formulate the
problem of crafting CFs as a sequential decision-making task and then find the
optimal CFs via deep reinforcement learning (DRL) with discrete-continuous
hybrid action space. Differently from other techniques, our method is easily
applied to any black-box model, as this resembles the environment that the DRL
agent interacts with. In addition, we develop an algorithm to extract
explainable decision rules from the DRL agent's policy, so as to make the
process of generating CFs itself transparent. Extensive experiments conducted
on several datasets have shown that our method outperforms existing CF
generation baselines.
- Abstract(参考訳): 説明可能な機械学習(ML)モデルの需要は近年急速に増加している。
MLモデル予測と人間の理解可能な理論的根拠を関連付ける手法として提案されている手法の中では、反実的説明が最も一般的である。
これらは、反実例(CF)から派生したポストホックルール、すなわち、説明すべき予測モデルから代替的な出力応答をもたらす入力サンプルの修正版から構成される。
しかし、既存のCF生成戦略は特定のモデルの内部(例えばランダムフォレストやニューラルネットワーク)を利用するか、サンプルの近傍に依存するため、より複雑なモデルでは一般化が困難で、より大きなデータセットでは非効率である。
本研究では,これらの制約を克服し,最適な反事実的説明を生成するモデル非依存アルゴリズムを提案する。
具体的には,逐次的意思決定タスクとしてcfsを作成する問題を定式化し,離散連続ハイブリッド行動空間を持つ深層強化学習(drl)により最適なcfsを求める。
他の手法とは異なり、この方法は任意のブラックボックスモデルに容易に適用でき、これはdrlエージェントが相互作用する環境に似ている。
また,drlエージェントのポリシーから説明可能な決定ルールを抽出するアルゴリズムを開発し,cfs生成プロセス自体を透明化する。
いくつかのデータセットで行った大規模な実験により,本手法は既存のCF生成ベースラインより優れていることが示された。
関連論文リスト
- Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Understanding Reinforcement Learning-Based Fine-Tuning of Diffusion Models: A Tutorial and Review [63.31328039424469]
このチュートリアルは、下流の報酬関数を最適化するための微調整拡散モデルのための方法を網羅的に調査する。
PPO,微分可能最適化,報酬重み付きMLE,値重み付きサンプリング,経路整合性学習など,様々なRLアルゴリズムの適用について説明する。
論文 参考訳(メタデータ) (2024-07-18T17:35:32Z) - Learning Car-Following Behaviors Using Bayesian Matrix Normal Mixture Regression [17.828808886958736]
自動車追従(CF)の挙動は, 微視的交通シミュレーションにおいて重要である。
堅牢性にもかかわらず、多くのデータ駆動方式は、解釈可能性に制限のある「ブラックボックス」として動作する。
この研究は、CFの挙動に固有の特徴相関と時間的ダイナミクスを同時にキャプチャするベイズ行列正規混合回帰(MNMR)モデルを導入する。
論文 参考訳(メタデータ) (2024-04-24T17:55:47Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - DualCF: Efficient Model Extraction Attack from Counterfactual
Explanations [57.46134660974256]
クラウドサービスプロバイダがMachine-Learning-as-a-Serviceプラットフォームをローンチした。
このような余分な情報は、必然的にクラウドモデルが、抽出攻撃に対してより脆弱になる。
本稿では,分類モデルを盗むためのクエリ効率を大幅に向上させる,新しい単純で効率的なクエリ手法を提案する。
論文 参考訳(メタデータ) (2022-05-13T08:24:43Z) - CounterNet: End-to-End Training of Prediction Aware Counterfactual
Explanations [12.313007847721215]
CounterNetは、予測モデルトレーニングと対実的(CF)説明の生成を統合する、エンドツーエンドの学習フレームワークである。
ポストホック法とは異なり、CounterNetは予測モデルとともにCF説明生成を1回だけ最適化することができる。
複数の実世界のデータセットに対する実験により、CounterNetは高品質な予測を生成することが示された。
論文 参考訳(メタデータ) (2021-09-15T20:09:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。