論文の概要: Trust Regions for Explanations via Black-Box Probabilistic Certification
- arxiv url: http://arxiv.org/abs/2402.11168v3
- Date: Wed, 5 Jun 2024 16:36:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 01:11:46.047801
- Title: Trust Regions for Explanations via Black-Box Probabilistic Certification
- Title(参考訳): Black-Box Probabilistic Certification による説明のための信頼領域
- Authors: Amit Dhurandhar, Swagatam Haldar, Dennis Wei, Karthikeyan Natesan Ramamurthy,
- Abstract要約: クエリアクセスのみのブラックボックスモデルを考えると、この例を中心とした最大のハイパーキューブを見つけることはできますか?
そのようなエファントラスト領域を効率的に見つけることは、複数の利点がある。
- 参考スコア(独自算出の注目度): 25.96547809874788
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given the black box nature of machine learning models, a plethora of explainability methods have been developed to decipher the factors behind individual decisions. In this paper, we introduce a novel problem of black box (probabilistic) explanation certification. We ask the question: Given a black box model with only query access, an explanation for an example and a quality metric (viz. fidelity, stability), can we find the largest hypercube (i.e., $\ell_{\infty}$ ball) centered at the example such that when the explanation is applied to all examples within the hypercube, (with high probability) a quality criterion is met (viz. fidelity greater than some value)? Being able to efficiently find such a \emph{trust region} has multiple benefits: i) insight into model behavior in a \emph{region}, with a \emph{guarantee}; ii) ascertained \emph{stability} of the explanation; iii) \emph{explanation reuse}, which can save time, energy and money by not having to find explanations for every example; and iv) a possible \emph{meta-metric} to compare explanation methods. Our contributions include formalizing this problem, proposing solutions, providing theoretical guarantees for these solutions that are computable, and experimentally showing their efficacy on synthetic and real data.
- Abstract(参考訳): 機械学習モデルのブラックボックスの性質を考えると、個々の決定の背後にある要因を解読するために、多くの説明可能性法が開発されている。
本稿では,ブラックボックス(確率的)説明証明の新たな問題を紹介する。
クエリアクセスのみを持つブラックボックスモデル、例の説明と品質指標(viz.fidelity, stability)が与えられた場合、ハイパーキューブ内のすべての例に説明が適用される場合(高い確率で)、品質基準が満たされる場合(viz.fidelityはいくつかの値よりも大きい)、その例を中心とした最大のハイパーキューブ($\ell_{\infty}$ ball)を見つけることができるか?
そのようなemph{trust region} を効率的に見つけることができると、いくつかの利点がある。
i) \emph{ Region}, with a \emph{guarantee} におけるモデル行動に関する洞察
二 説明のemph{stability}を確定する。
三 あらゆる例について説明をしなくてすむことにより、時間、エネルギー及びお金を節約できる「emph{explanation reuse}」
iv) 説明方法を比較するためのemph{meta-metric}の可能性。
私たちの貢献には、この問題の形式化、ソリューションの提案、計算可能なこれらのソリューションに対する理論的保証の提供、合成および実データに対するそれらの有効性を実験的に示すことが含まれる。
関連論文リスト
- Learning Model Agnostic Explanations via Constraint Programming [8.257194221102225]
解釈可能な機械学習は、不透明な分類器による予測を人間に理解可能な言葉で説明するという、繰り返し発生する課題に直面している。
本稿では,このタスクを制約最適化問題(Constraint Optimization Problem)として,入力データインスタンスの最小誤差と境界サイズの説明と,ブラックボックスが生成したサンプルの集合を求める。
提案手法は,様々なデータセット上で実証的に評価し,最先端のアンカー法よりも統計的に優れていることを示す。
論文 参考訳(メタデータ) (2024-11-13T09:55:59Z) - Identifying General Mechanism Shifts in Linear Causal Representations [58.6238439611389]
我々は,未知の潜在因子の線形混合を観測する線形因果表現学習環境について考察する。
近年の研究では、潜伏要因の復元や、それに基づく構造因果モデルの構築が可能であることが示されている。
非常に穏やかな標準仮定の下では、シフトしたノードの集合を識別することが可能である。
論文 参考訳(メタデータ) (2024-10-31T15:56:50Z) - Efficiently stable presentations from error-correcting codes [5.69361786082969]
線形誤り訂正符号から$mathbbZk$のプレゼンテーションを構築するための一般的な方法を提案する。
結果のプレゼンテーションは、コードがエフェクト可能なときの安定性が弱いことを観察する。
このことは一般には証明できないが、量子情報理論における非局所ゲームの研究において最近の結果を活用する。
論文 参考訳(メタデータ) (2023-11-08T13:40:13Z) - A Framework for Data-Driven Explainability in Mathematical Optimization [0.0]
最適化ソフトウェアがブラックボックスとして認識されているため、確実に最適な解決策は受け入れられないかもしれない。
我々は、目的値の横にある別の評価基準として、ソリューションの説明可能性を導入することを提唱する。
説明責任を強制するコストは非常に小さいことが判明した。
論文 参考訳(メタデータ) (2023-08-16T12:12:24Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - High Probability Bounds for a Class of Nonconvex Algorithms with AdaGrad
Stepsize [55.0090961425708]
本研究では,AdaGradのスムーズな非確率問題に対する簡易な高確率解析法を提案する。
我々はモジュラーな方法で解析を行い、決定論的設定において相補的な$mathcal O (1 / TT)$収束率を得る。
我々の知る限りでは、これは真に適応的なスキームを持つAdaGradにとって初めての高い確率である。
論文 参考訳(メタデータ) (2022-04-06T13:50:33Z) - Do Explanations Explain? Model Knows Best [39.86131552976105]
入力特徴がニューラルネットワークの出力に寄与するミステリーである。
本稿では,ニューラルネットワークモデル自体を用いた説明評価フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-04T12:39:29Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Model extraction from counterfactual explanations [68.8204255655161]
本稿では, 敵が反実的説明によって提供された情報を利用して, 高精度かつ高精度なモデル抽出攻撃を構築する方法を示す。
我々の攻撃は、敵が相手モデルの忠実なコピーを、その偽説明にアクセスして作成することを可能にする。
論文 参考訳(メタデータ) (2020-09-03T19:02:55Z) - Counterfactual explanation of machine learning survival models [5.482532589225552]
その結果, 線形制約を伴う標準凸最適化問題に, 逆実説明問題を還元できることが示唆された。
他のブラックボックスモデルでは、よく知られたParticle Swarm Optimizationアルゴリズムを適用することが提案されている。
論文 参考訳(メタデータ) (2020-06-26T19:46:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。