論文の概要: Ensemble of Counterfactual Explainers
- arxiv url: http://arxiv.org/abs/2308.15194v1
- Date: Tue, 29 Aug 2023 10:21:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 14:39:20.731145
- Title: Ensemble of Counterfactual Explainers
- Title(参考訳): 反現実的説明者の集まり
- Authors: Riccardo Guidotti, Salvatore Ruggieri
- Abstract要約: 本稿では,弱い説明者を増やす反事実的説明者のアンサンブルを提案し,そのような特性のサブセットのみを提供する。
このアンサンブルは、インスタンスと機能のサンプルで弱い説明器を実行し、多様性駆動の選択関数を利用して結果を組み合わせる。
- 参考スコア(独自算出の注目度): 17.88531216690148
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In eXplainable Artificial Intelligence (XAI), several counterfactual
explainers have been proposed, each focusing on some desirable properties of
counterfactual instances: minimality, actionability, stability, diversity,
plausibility, discriminative power. We propose an ensemble of counterfactual
explainers that boosts weak explainers, which provide only a subset of such
properties, to a powerful method covering all of them. The ensemble runs weak
explainers on a sample of instances and of features, and it combines their
results by exploiting a diversity-driven selection function. The method is
model-agnostic and, through a wrapping approach based on autoencoders, it is
also data-agnostic.
- Abstract(参考訳): 説明可能な人工知能 (xai) では、最小性、行動可能性、安定性、多様性、可能性、判別力といった反事実インスタンスの望ましい特性に焦点を当てた、いくつかの反事実的説明が提案されている。
我々は,これらの特性のサブセットのみを提供する弱い説明器を,それらすべてをカバーする強力な手法に拡張する反事実説明器のアンサンブルを提案する。
このアンサンブルは、インスタンスと機能のサンプルで弱い説明器を実行し、多様性駆動の選択関数を利用して結果を組み合わせる。
この手法はモデル非依存であり、オートエンコーダに基づくラップ方式により、データ非依存である。
関連論文リスト
- Abductive explanations of classifiers under constraints: Complexity and properties [6.629765271909503]
制約を考慮に入れた3つの新しいタイプの説明を提案する。
それらは、機能空間全体から、あるいはデータセットから生成できる。
我々は、冗長で過剰なAXpを捨てるには、カバレッジが十分であることを示す。
論文 参考訳(メタデータ) (2024-09-18T17:15:39Z) - Enhancing Neural Subset Selection: Integrating Background Information into Set Representations [53.15923939406772]
対象値が入力集合とサブセットの両方に条件付けされている場合、スーパーセットのテクスティ不変な統計量を関心のサブセットに組み込むことが不可欠であることを示す。
これにより、出力値がサブセットとその対応するスーパーセットの置換に不変であることを保証する。
論文 参考訳(メタデータ) (2024-02-05T16:09:35Z) - Generating collective counterfactual explanations in score-based
classification via mathematical optimization [4.281723404774889]
インスタンスの反実的な説明は、このインスタンスを最小限に修正して、摂動インスタンスを望ましいクラスに分類する方法を示している。
カウンターファクト・アナリティクスの文献の多くは、単一インスタンスの単一カウントファクト・セッティングに焦点を当てている。
新規な数学的最適化モデルにより、興味ある群における各インスタンスに対する対実的説明を提供する。
論文 参考訳(メタデータ) (2023-10-19T15:18:42Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - On Guaranteed Optimal Robust Explanations for NLP Models [16.358394218953833]
我々は,マシーン学習のための推論に基づく説明を構築し,ニューラルネットワークモデルのための局所的説明を計算する方法を開発した。
我々は,それぞれ暗黙の打撃集合と最大普遍部分集合に基づく2つの解アルゴリズムを提案する。
SST、Twitter、IMDBデータセットから、広く使用されている3つの感情分析タスクと最大100ワードのテキストに基づいてフレームワークを評価します。
論文 参考訳(メタデータ) (2021-05-08T08:44:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。