論文の概要: FASTER-CE: Fast, Sparse, Transparent, and Robust Counterfactual
Explanations
- arxiv url: http://arxiv.org/abs/2210.06578v1
- Date: Wed, 12 Oct 2022 20:41:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 16:53:42.597821
- Title: FASTER-CE: Fast, Sparse, Transparent, and Robust Counterfactual
Explanations
- Title(参考訳): FASTER-CE: 高速,疎,透明,ロバストな対実的説明
- Authors: Shubham Sharma, Alan H. Gee, Jette Henderson, Joydeep Ghosh
- Abstract要約: FASTER-CE: 高速でスパースで堅牢な対実的説明を生成する新しいアルゴリズムのセットを提示する。
鍵となる考え方は、オートエンコーダを介して指定された潜在空間において、偽物に対する有望な探索方向を効率的に見つけることである。
最も有望な勾配方向の組み合わせを迅速に検証し、追加のユーザ定義制約を組み込むことで、複数の反現実的説明を生成することができる。
- 参考スコア(独自算出の注目度): 9.532938405575788
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations have substantially increased in popularity in the
past few years as a useful human-centric way of understanding individual
black-box model predictions. While several properties desired of high-quality
counterfactuals have been identified in the literature, three crucial concerns:
the speed of explanation generation, robustness/sensitivity and succinctness of
explanations (sparsity) have been relatively unexplored. In this paper, we
present FASTER-CE: a novel set of algorithms to generate fast, sparse, and
robust counterfactual explanations. The key idea is to efficiently find
promising search directions for counterfactuals in a latent space that is
specified via an autoencoder. These directions are determined based on
gradients with respect to each of the original input features as well as of the
target, as estimated in the latent space. The ability to quickly examine
combinations of the most promising gradient directions as well as to
incorporate additional user-defined constraints allows us to generate multiple
counterfactual explanations that are sparse, realistic, and robust to input
manipulations. Through experiments on three datasets of varied complexities, we
show that FASTER-CE is not only much faster than other state of the art methods
for generating multiple explanations but also is significantly superior when
considering a larger set of desirable (and often conflicting) properties.
Specifically we present results across multiple performance metrics: sparsity,
proximity, validity, speed of generation, and the robustness of explanations,
to highlight the capabilities of the FASTER-CE family.
- Abstract(参考訳): 近年,個々のブラックボックスモデル予測を理解する上で有用な人中心的手法として,対人的説明が著しく人気が高まっている。
高品質なカウンターファクトが望まれるいくつかの特性が文献で確認されているが、説明の生成速度、堅牢性/感度、説明の簡潔さ(スパーシティ)の3つの重要な懸念は、比較的研究されていない。
本稿では,高速でスパースでロバストな反事実的説明を生成する新しいアルゴリズムであるFASTER-CEを提案する。
鍵となる考え方は、オートエンコーダを介して指定された潜在空間において、カウンターファクトの有望な探索方向を効率的に見つけることである。
これらの方向は、後続空間で推定されるように、元の入力特徴とターゲットのそれぞれに対する勾配に基づいて決定される。
最も有望な勾配方向の組み合わせを迅速に検証し、追加のユーザ定義制約を組み込むことで、スパースでリアルで、入力操作に頑健な複数の反事実的説明を生成することができる。
複合性の異なる3つのデータセットに関する実験を通じて,複数の説明を生成するための他の状態よりも高速であるだけでなく,望ましい(かつしばしば矛盾する)性質のより大きな集合を考える場合にも有意に優れていることを示した。
具体的には,sparsity, near, valid, speed of generation, and the robustness of explanationsという,複数のパフォーマンス指標にまたがる結果を示し,fast-ceファミリの能力を強調する。
関連論文リスト
- Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - XPrompt:Explaining Large Language Model's Generation via Joint Prompt Attribution [26.639271355209104]
LLM(Large Language Models)は複雑なテキスト生成タスクにおいて顕著なパフォーマンスを示す。
生成したコンテンツに対する入力プロンプトの寄与は、まだ人間には明らかでない。
本稿では,共同プロンプト帰属型XPromptに基づく実例説明フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-30T18:16:41Z) - Enhancing Counterfactual Explanation Search with Diffusion Distance and Directional Coherence [0.0]
AIモデルの採用の急激な問題は、予測に関するより人間中心の説明に対する需要の増加である。
本稿では,2つの新しいバイアスを組み込むことにより,効果的な対実的説明の探索を強化することを提案する。
論文 参考訳(メタデータ) (2024-04-19T11:47:17Z) - TextGenSHAP: Scalable Post-hoc Explanations in Text Generation with Long
Documents [34.52684986240312]
LM固有の手法を取り入れた効率的なポストホック説明法であるTextGenSHAPを紹介する。
従来のShapley値計算と比較して,速度が大幅に向上することを示す。
さらに,実時間シェープ値が2つの重要なシナリオでどのように活用できるかを示す。
論文 参考訳(メタデータ) (2023-12-03T04:35:04Z) - Transcending Forgery Specificity with Latent Space Augmentation for Generalizable Deepfake Detection [57.646582245834324]
LSDAと呼ばれる簡易で効果的なディープフェイク検出器を提案する。
より多様な偽の表現は、より一般化可能な決定境界を学べるべきである。
提案手法は驚くほど有効であり, 広く使用されている複数のベンチマークで最先端の検出器を超越することを示す。
論文 参考訳(メタデータ) (2023-11-19T09:41:10Z) - Consistent Multi-Granular Rationale Extraction for Explainable Multi-hop
Fact Verification [13.72453491358488]
本稿では,マルチホップ事実検証のための一貫性と忠実度を考慮した多粒性論理的抽出の実現可能性について検討する。
特に、事前訓練された妥当性予測モデルにより、トークンレベル説明器と文レベル説明器を同時に訓練し、多粒性論理式を得る。
3つのマルチホップ事実検証データセットの実験結果から,提案手法は最先端のベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-16T12:31:53Z) - Improving Out-of-Distribution Generalization of Neural Rerankers with
Contextualized Late Interaction [52.63663547523033]
マルチベクトルの最も単純な形式である後期相互作用は、[]ベクトルのみを使用して類似度スコアを計算する神経リランカにも役立ちます。
異なるモデルサイズと多様な性質の第一段階のレトリバーに一貫性があることが示される。
論文 参考訳(メタデータ) (2023-02-13T18:42:17Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Latent-CF: A Simple Baseline for Reverse Counterfactual Explanations [0.0]
質の高い説明は公平性を評価するための第一歩である。
それらを製造するためのベースラインを見つけることが重要です。
潜在空間の反事実生成は,基本特徴勾配降下手法の速度と,より複雑な特徴空間指向手法によって生成された反事実の真正性との間にバランスをとることを示す。
論文 参考訳(メタデータ) (2020-12-16T22:35:42Z) - SCOUT: Self-aware Discriminant Counterfactual Explanations [78.79534272979305]
対物的視覚的説明の問題点を考察する。
新しい差別的な説明の族が紹介される。
結果として生じる反実的な説明は、最適化が自由で、従って以前の方法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-16T17:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。