論文の概要: counterfactuals: An R Package for Counterfactual Explanation Methods
- arxiv url: http://arxiv.org/abs/2304.06569v2
- Date: Fri, 15 Sep 2023 19:01:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 00:07:51.142124
- Title: counterfactuals: An R Package for Counterfactual Explanation Methods
- Title(参考訳): counterfactuals: Counterfactual Explanation MethodsのRパッケージ
- Authors: Susanne Dandl, Andreas Hofheinz, Martin Binder, Bernd Bischl, Giuseppe
Casalicchio
- Abstract要約: 本稿では, 対物的説明法のためのモジュール・統一インターフェースを提供する, 対物的Rパッケージについて紹介する。
提案手法は,既存の3つの対実的説明法を実装し,オプションの方法論拡張を提案する。
本稿では,パッケージに反実的説明手法を組み込む方法について述べる。
- 参考スコア(独自算出の注目度): 9.505961054570523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Counterfactual explanation methods provide information on how feature values
of individual observations must be changed to obtain a desired prediction.
Despite the increasing amount of proposed methods in research, only a few
implementations exist whose interfaces and requirements vary widely. In this
work, we introduce the counterfactuals R package, which provides a modular and
unified R6-based interface for counterfactual explanation methods. We
implemented three existing counterfactual explanation methods and propose some
optional methodological extensions to generalize these methods to different
scenarios and to make them more comparable. We explain the structure and
workflow of the package using real use cases and show how to integrate
additional counterfactual explanation methods into the package. In addition, we
compared the implemented methods for a variety of models and datasets with
regard to the quality of their counterfactual explanations and their runtime
behavior.
- Abstract(参考訳): 反事実説明法は、望ましい予測を得るために個々の観察の特徴値をどのように変更する必要があるかに関する情報を提供する。
研究における提案手法の増大にもかかわらず、インターフェースと要件が広く異なる実装はごくわずかである。
本稿では,R6をベースとしたモジュール型・統一インタフェースを実装した反ファクト的Rパッケージを提案する。
提案手法は,既存手法を3つ実装し,これらの手法を異なるシナリオに一般化し,それと同等にするために,オプションの方法論拡張を提案する。
本稿では,パッケージの構造とワークフローを実際のユースケースを用いて説明し,パッケージに反事実的説明メソッドを追加する方法を示す。
さらに,実装した手法を様々なモデルやデータセットと比較し,それらの反事実的説明と実行時の動作の質について検討した。
関連論文リスト
- Which Explanation Should I Choose? A Function Approximation Perspective
to Characterizing Post hoc Explanations [16.678003262147346]
一般的な説明手法は局所関数近似(LFA)フレームワークの例であることを示す。
本稿では,関数近似の観点に基づく指導原理を提案し,基礎となるモデルを復元した場合に有効となる方法を検討する。
実世界の様々なデータセット、モデルクラス、予測タスクを用いて理論的結果を実証的に検証する。
論文 参考訳(メタデータ) (2022-06-02T19:09:30Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - CARLA: A Python Library to Benchmark Algorithmic Recourse and
Counterfactual Explanation Algorithms [6.133522864509327]
CARLA (Counterfactual And Recourse LibrAry) は、対物的説明法をベンチマークするピソンライブラリである。
提案手法は,11種類の反事実的説明手法の広範なベンチマークを提供する。
また,将来的対実的説明法の研究のためのベンチマークフレームワークも提供する。
論文 参考訳(メタデータ) (2021-08-02T11:00:43Z) - Multivariate Data Explanation by Jumping Emerging Patterns Visualization [78.6363825307044]
多変量データセットにおけるパターンの識別と視覚的解釈を支援するVAX(multiVariate dAta eXplanation)を提案する。
既存の類似のアプローチとは異なり、VAXはJumping Emerging Patternsという概念を使って、複数の多様化したパターンを特定し、集約し、データ変数のロジックの組み合わせを通して説明を生成する。
論文 参考訳(メタデータ) (2021-06-21T13:49:44Z) - Evaluating Explanations: How much do explanations from the teacher aid
students? [103.05037537415811]
本研究では,説明が生徒の学習モデルを改善する程度を測る学生-教師パラダイムを用いて,説明の価値を定式化する。
説明を評価するための従来の提案とは異なり、我々のアプローチは容易にゲーム化できず、原則付き、スケーラブルで、属性の自動評価を可能にします。
論文 参考訳(メタデータ) (2020-12-01T23:40:21Z) - Explaining by Removing: A Unified Framework for Model Explanation [14.50261153230204]
削除に基づく説明は、各特徴の影響を定量化するための特徴除去をシミュレートする原則に基づいている。
1) メソッドが特徴を除去する方法,2) メソッドが説明するモデル動作,3) メソッドがそれぞれの特徴の影響を要約する方法,の3つの側面に沿って各メソッドを特徴付けるフレームワークを開発する。
新たに理解された説明手法のクラスは、説明可能性の文献にほとんど見落とされたツールを用いて、豊富なつながりを持つ。
論文 参考訳(メタデータ) (2020-11-21T00:47:48Z) - Feature Removal Is a Unifying Principle for Model Explanation Methods [14.50261153230204]
文献を検証した結果,多くの手法が,削除による説明の共有原理に基づいていることがわかった。
本研究では,3次元にまたがる各手法を特徴付ける,除去に基づく説明のためのフレームワークを開発する。
我々のフレームワークは26の既存メソッドを統一し、最も広く使われているアプローチをいくつか含む。
論文 参考訳(メタデータ) (2020-11-06T22:37:55Z) - Evaluating the Disentanglement of Deep Generative Models through
Manifold Topology [66.06153115971732]
本稿では,生成モデルのみを用いた乱れの定量化手法を提案する。
複数のデータセットにまたがるいくつかの最先端モデルを実証的に評価する。
論文 参考訳(メタデータ) (2020-06-05T20:54:11Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z) - Multi-Objective Counterfactual Explanations [0.7349727826230864]
本稿では, 対物探索を多目的最適化問題に変換する多目的対物法 (MOC) を提案する。
我々のアプローチは、提案する目的間のトレードオフの異なる多様な対策セットを返却するだけでなく、特徴空間における多様性も維持する。
論文 参考訳(メタデータ) (2020-04-23T13:56:39Z) - There and Back Again: Revisiting Backpropagation Saliency Methods [87.40330595283969]
正当性法は,各入力サンプルの重要度マップを作成することによって,モデルの予測を説明する。
このような手法の一般的なクラスは、信号のバックプロパゲートと結果の勾配の分析に基づいている。
本稿では,そのような手法を統一可能な単一のフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:58:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。