論文の概要: Explaining Black-Box Models through Counterfactuals
- arxiv url: http://arxiv.org/abs/2308.07198v1
- Date: Mon, 14 Aug 2023 15:07:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 12:45:58.227683
- Title: Explaining Black-Box Models through Counterfactuals
- Title(参考訳): 反事実によるブラックボックスモデルの説明
- Authors: Patrick Altmeyer and Arie van Deursen and Cynthia C. S. Liem
- Abstract要約: We present CounterfactualExplanations.jl: a package for generate Counterfactual Explanations (CE) and Algorithmic Recourse (AR) for black-box model in Julia。
- 参考スコア(独自算出の注目度): 18.558373360569608
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present CounterfactualExplanations.jl: a package for generating
Counterfactual Explanations (CE) and Algorithmic Recourse (AR) for black-box
models in Julia. CE explain how inputs into a model need to change to yield
specific model predictions. Explanations that involve realistic and actionable
changes can be used to provide AR: a set of proposed actions for individuals to
change an undesirable outcome for the better. In this article, we discuss the
usefulness of CE for Explainable Artificial Intelligence and demonstrate the
functionality of our package. The package is straightforward to use and
designed with a focus on customization and extensibility. We envision it to one
day be the go-to place for explaining arbitrary predictive models in Julia
through a diverse suite of counterfactual generators.
- Abstract(参考訳): We present CounterfactualExplanations.jl: a package for generate Counterfactual Explanations (CE) and Algorithmic Recourse (AR) for black-box model in Julia。
ce モデルへの入力がどのようにして特定のモデル予測を生成する必要があるかを説明します。
現実的で実行可能な変更を含む説明は、arを提供するのに使うことができる: 個人が望ましくない結果を改善するための一連の提案アクション。
本稿では,CE の Explainable Artificial Intelligence における有用性について論じ,パッケージの機能について述べる。
パッケージは使いやすく、カスタマイズと拡張性を重視して設計されている。
私たちは、juliaの任意の予測モデルを説明するために、さまざまな反事実生成器のスイートを通して、ある日それがゴートな場所になることを想定しています。
関連論文リスト
- DISCRET: Synthesizing Faithful Explanations For Treatment Effect Estimation [21.172795461188578]
我々は,各サンプルに対して忠実で規則に基づく説明を合成する自己解釈型ITTフレームワークdisCRETを提案する。
DISCRETの背景にある重要な洞察は、説明が2つのデータベースクエリとして機能し、類似したサンプルのサブグループを識別できるということである。
大規模な探索空間からこれらの説明を効率的に合成する新しいRLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-02T04:01:08Z) - Learning to Explain: A Model-Agnostic Framework for Explaining Black Box
Models [9.945345991490624]
本稿では、視覚モデルに対するポストホックな説明を提供するためのモデルに依存しないフレームワークであるLearning to Explain(LTX)を紹介する。
LTXフレームワークは、説明マップを生成する"説明者"モデルを導入し、説明されているモデルの予測を正当化する重要な領域を強調している。
LTXは、様々な指標において、現在の最先端の説明可能性を大幅に上回っていることを実証する。
論文 参考訳(メタデータ) (2023-10-25T12:18:00Z) - BELLA: Black box model Explanations by Local Linear Approximations [10.05944106581306]
我々は、回帰ブラックボックスモデルの個々の予測を説明するために、決定論的モデルに依存しないポストホックアプローチであるBELLAを提案する。
BELLAは特徴空間で訓練された線形モデルという形で説明を提供する。
BELLAは事実と反事実の両方を説明することができる。
論文 参考訳(メタデータ) (2023-05-18T21:22:23Z) - Composing Ensembles of Pre-trained Models via Iterative Consensus [95.10641301155232]
本稿では,異なる事前学習モデルのアンサンブルを構成するための統一的なフレームワークを提案する。
事前学習したモデルを「ジェネレータ」あるいは「スコーラ」として使用し、クローズドループ反復コンセンサス最適化により構成する。
スコアラーのアンサンブルによって達成されたコンセンサスは、シングルスコアラーのフィードバックよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-20T18:46:31Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - CARE: Coherent Actionable Recourse based on Sound Counterfactual
Explanations [0.0]
本稿では,モデルおよびユーザレベルのデシダータに対処するモジュール型説明フレームワークであるCAREを紹介する。
モデルに依存しないアプローチとして、CAREはブラックボックスモデルに対して複数の多様な説明を生成する。
論文 参考訳(メタデータ) (2021-08-18T15:26:59Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Towards Unifying Feature Attribution and Counterfactual Explanations:
Different Means to the Same End [17.226134854746267]
本稿では,一組の反実例から特徴帰属説明を生成する手法を提案する。
本報告では, 帰属に基づく説明の妥当性を, その必要性と充足性の観点から評価するために, 対実例をいかに活用するかを示す。
論文 参考訳(メタデータ) (2020-11-10T05:41:43Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Model extraction from counterfactual explanations [68.8204255655161]
本稿では, 敵が反実的説明によって提供された情報を利用して, 高精度かつ高精度なモデル抽出攻撃を構築する方法を示す。
我々の攻撃は、敵が相手モデルの忠実なコピーを、その偽説明にアクセスして作成することを可能にする。
論文 参考訳(メタデータ) (2020-09-03T19:02:55Z) - Exploring Explainable Selection to Control Abstractive Summarization [51.74889133688111]
説明可能性を重視した新しいフレームワークを開発する。
新しいペアワイズ行列は、文の相互作用、中心性、属性スコアをキャプチャする。
コンストラクタ内の文分割アテンション機構は、最終要約が所望のコンテンツを強調することを保証する。
論文 参考訳(メタデータ) (2020-04-24T14:39:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。