論文の概要: Robust Counterfactual Explanations in Machine Learning: A Survey
- arxiv url: http://arxiv.org/abs/2402.01928v1
- Date: Fri, 2 Feb 2024 21:56:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 23:29:13.813293
- Title: Robust Counterfactual Explanations in Machine Learning: A Survey
- Title(参考訳): 機械学習におけるロバストな対実的説明:調査
- Authors: Junqi Jiang, Francesco Leofante, Antonio Rago, Francesca Toni
- Abstract要約: 対実的説明(CE)は、機械学習モデルに影響された被験者にアルゴリズムによる会話を提供するのに理想的に適していると提唱されている。
最近の研究は、CEを得るための最先端の手法の堅牢性に関連する深刻な問題を明らかにしている。
堅牢性の欠如はCEの妥当性を損なう可能性があるため、このリスクを軽減する技術は順調である。
- 参考スコア(独自算出の注目度): 17.429631079094186
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations (CEs) are advocated as being ideally suited to
providing algorithmic recourse for subjects affected by the predictions of
machine learning models. While CEs can be beneficial to affected individuals,
recent work has exposed severe issues related to the robustness of
state-of-the-art methods for obtaining CEs. Since a lack of robustness may
compromise the validity of CEs, techniques to mitigate this risk are in order.
In this survey, we review works in the rapidly growing area of robust CEs and
perform an in-depth analysis of the forms of robustness they consider. We also
discuss existing solutions and their limitations, providing a solid foundation
for future developments.
- Abstract(参考訳): 対実的説明(CE)は、機械学習モデルの予測に影響された被験者にアルゴリズムによる会話を提供するのに理想的に適していると考えられている。
CEは影響のある人には有益であるが、最近の研究は、CEを得るための最先端の手法の堅牢性に関連する深刻な問題を露呈している。
堅牢性の欠如はCEの妥当性を損なう可能性があるため、このリスクを軽減する技術は順調である。
本調査では, 急速に成長するロバストCEの分野における研究を概観し, それらが考えるロバストネスの形式を詳細に分析する。
既存のソリューションとその制限についても議論し、将来の発展のための確かな基盤を提供します。
関連論文リスト
- PACE: Poisoning Attacks on Learned Cardinality Estimation [19.513759745995333]
ブラックボックス環境下での学習CEに対する毒殺の新たな問題について検討した。
PACEは学習したCEモデルの精度を178倍削減することを示した。
論文 参考訳(メタデータ) (2024-09-24T11:45:23Z) - Interval Abstractions for Robust Counterfactual Explanations [15.954944873701503]
対実的説明(CE)は、説明可能なAI研究における主要なパラダイムとして現れている。
既存のメソッドは、生成したモデルのパラメータにわずかな変更が発生すると、しばしば無効になる。
本稿では,機械学習モデルのための新しいインターバル抽象化手法を提案する。
論文 参考訳(メタデータ) (2024-04-21T18:24:34Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - Self-consistent Validation for Machine Learning Electronic Structure [81.54661501506185]
機械学習と自己整合フィールド法を統合して,検証コストの低減と解釈可能性の両立を実現する。
これにより、積極的学習によるモデルの能力の探索が可能となり、実際の研究への統合への信頼がもたらされる。
論文 参考訳(メタデータ) (2024-02-15T18:41:35Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Provably Robust and Plausible Counterfactual Explanations for Neural Networks via Robust Optimisation [19.065904250532995]
PROPLACE(Provably RObust and PLAUSible Counterfactual Explanations)を提案する。
証明可能な堅牢なCEを計算し、その収束性、健全性、完全性を証明するための反復アルゴリズムを定式化する。
ProPLACEは,3つの評価点において,計測値に対する最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-09-22T00:12:09Z) - Explainable Intrusion Detection Systems (X-IDS): A Survey of Current
Methods, Challenges, and Opportunities [0.0]
侵入検知システム(IDS)は、大量のデータを高い予測精度で処理できるため、広く採用されている。
深層学習(DL)技術を用いて設計されたIDSは、ブラックボックスモデルとして扱われることが多く、予測の正当化は提供されない。
この調査では、IDSの最先端AI(XAI)とその現在の課題についてレビューし、これらの課題がX-IDSの設計にどのように当てはまるかを論じる。
論文 参考訳(メタデータ) (2022-07-13T14:31:46Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Generating Interpretable Counterfactual Explanations By Implicit
Minimisation of Epistemic and Aleatoric Uncertainties [24.410724285492485]
補助モデルなしでホワイトボックス設定で解釈可能なCEを生成するための簡易かつ高速な手法を提案する。
実験の結果,提案アルゴリズムは既存の手法よりも,より解釈可能なCEを生成することがわかった。
論文 参考訳(メタデータ) (2021-03-16T10:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。