論文の概要: From Robustness to Explainability and Back Again
- arxiv url: http://arxiv.org/abs/2306.03048v3
- Date: Tue, 03 Dec 2024 11:05:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:39:16.935950
- Title: From Robustness to Explainability and Back Again
- Title(参考訳): ロバストネスから説明可能性へ、そして再び戻る
- Authors: Xuanxiang Huang, Joao Marques-Silva,
- Abstract要約: 本稿では、形式的説明可能性のスケーラビリティの低さに対処し、形式的説明を計算するための新しい効率的なアルゴリズムを提案する。
提案アルゴリズムは、代わりに複数のクエリに答えることによって説明を計算し、そのようなクエリの数は、機能数に対して最も線形であるように頑健である。
- 参考スコア(独自算出の注目度): 3.7950144463212134
- License:
- Abstract: Formal explainability guarantees the rigor of computed explanations, and so it is paramount in domains where rigor is critical, including those deemed high-risk. Unfortunately, since its inception formal explainability has been hampered by poor scalability. At present, this limitation still holds true for some families of classifiers, the most significant being deep neural networks. This paper addresses the poor scalability of formal explainability and proposes novel efficient algorithms for computing formal explanations. The novel algorithm computes explanations by answering instead a number of robustness queries, and such that the number of such queries is at most linear on the number of features. Consequently, the proposed algorithm establishes a direct relationship between the practical complexity of formal explainability and that of robustness. To achieve the proposed goals, the paper generalizes the definition of formal explanations, thereby allowing the use of robustness tools that are based on different distance norms, and also by reasoning in terms of some target degree of robustness. Preliminary experiments validate the practical efficiency of the proposed approach.
- Abstract(参考訳): 形式的な説明責任は、計算された説明の厳密さを保証するため、厳密さが重要である領域において最重要であり、高リスクと見なされる領域を含む。
残念ながら、その正式な説明容易性は、スケーラビリティの低さによって妨げられている。
現在、この制限はいくつかの分類器の族に当てはまるが、最も重要なのはディープニューラルネットワークである。
本稿では、形式的説明可能性のスケーラビリティの低さに対処し、形式的説明を計算するための新しい効率的なアルゴリズムを提案する。
斬新なアルゴリズムは、代わりに多数のロバストネスクエリに答えて説明を計算し、そのようなクエリの数は、機能数に対して最も線形である。
その結果,提案アルゴリズムは形式的説明可能性の実践的複雑さと頑健さの直接的な関係を確立する。
提案した目的を達成するために, 形式的説明の定義を一般化し, 異なる距離ノルムに基づく頑健性ツールの使用を可能にするとともに, 目標とする頑健性の観点からの推論を行う。
予備実験により,提案手法の有効性が検証された。
関連論文リスト
- Efficient Contrastive Explanations on Demand [7.109897082275965]
本稿では,機械学習モデルに対して,いわゆるコントラスト的説明を計算するための新しいアルゴリズムを提案する。
また,本論文では,説明文をリストアップし,最小の対照的な説明文を見つけるための新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-24T08:24:10Z) - The Foundations of Tokenization: Statistical and Computational Concerns [51.370165245628975]
トークン化は、NLPパイプラインにおける重要なステップである。
NLPにおける標準表現法としての重要性は認識されているが、トークン化の理論的基盤はまだ完全には理解されていない。
本稿では,トークン化モデルの表現と解析のための統一的な形式的枠組みを提案することによって,この理論的ギャップに対処することに貢献している。
論文 参考訳(メタデータ) (2024-07-16T11:12:28Z) - Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - Even-if Explanations: Formal Foundations, Priorities and Complexity [18.126159829450028]
線形モデルとツリーモデルの両方がニューラルネットワークよりも厳密に解釈可能であることを示す。
ユーザが好みに基づいて説明をパーソナライズすることのできる、嗜好に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-17T11:38:58Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Towards Formal Approximated Minimal Explanations of Neural Networks [0.0]
ディープニューラルネットワーク(DNN)は現在、多くのドメインで使用されている。
DNNは「ブラックボックス」であり、人間には解釈できない。
そこで本研究では,最小限の説明を求めるための効率的な検証手法を提案する。
論文 参考訳(メタデータ) (2022-10-25T11:06:37Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - How Much Can I Trust You? -- Quantifying Uncertainties in Explaining
Neural Networks [19.648814035399013]
説明可能なAI(XAI)は、ディープニューラルネットワークなどの学習マシンが生成した予測の解釈を提供することを目的としている。
ニューラルネットワークの任意の説明法をベイズニューラルネットワークの説明法に変換するための新しいフレームワークを提案する。
様々な実験において,本手法の有効性と有用性を示す。
論文 参考訳(メタデータ) (2020-06-16T08:54:42Z) - From Checking to Inference: Actual Causality Computations as
Optimization Problems [79.87179017975235]
本稿では、最適化問題として二元非巡回モデルよりも、因果推論の異なる概念を定式化するための新しいアプローチを提案する。
8000ドル以上の変数を持つモデルを用いて,MaxSAT が ILP を上回り,数秒単位でチェック処理を行う場合が多い。
論文 参考訳(メタデータ) (2020-06-05T10:56:52Z) - Convex Density Constraints for Computing Plausible Counterfactual
Explanations [8.132423340684568]
因果的説明は、あるモデルの特定の決定を説明する最も一般的な手法の1つであると考えられている。
我々は最近の研究に基づいて、妥当な対実的説明の形式的定義を提案し、研究する。
特に, 実測値の妥当性と妥当性を高めるために, 密度推定器の応用について検討する。
論文 参考訳(メタデータ) (2020-02-12T09:23:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。