論文の概要: Provably Explaining Neural Additive Models
- arxiv url: http://arxiv.org/abs/2602.17530v1
- Date: Thu, 19 Feb 2026 16:42:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.214727
- Title: Provably Explaining Neural Additive Models
- Title(参考訳): 潜在的に説明可能なニューラル付加モデル
- Authors: Shahaf Bassan, Yizhak Yisrael Elboher, Tobias Ladner, Volkan Şahin, Jan Kretinsky, Matthias Althoff, Guy Katz,
- Abstract要約: 証明可能な保証を持つ説明を得るための主要なアプローチは、入力特徴の基数最小部分集合を特定することである。
標準的なニューラルネットワークの場合、このタスクは最悪の指数的な数の検証クエリを必要とするため、しばしば計算不可能である。
近年のニューラルネットワークファミリーであるニューラル・アダプティブ・モデル(NAM)では、そのような保証によって効率的に説明を生成できることが示されている。
- 参考スコア(独自算出の注目度): 13.941535361737728
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite significant progress in post-hoc explanation methods for neural networks, many remain heuristic and lack provable guarantees. A key approach for obtaining explanations with provable guarantees is by identifying a cardinally-minimal subset of input features which by itself is provably sufficient to determine the prediction. However, for standard neural networks, this task is often computationally infeasible, as it demands a worst-case exponential number of verification queries in the number of input features, each of which is NP-hard. In this work, we show that for Neural Additive Models (NAMs), a recent and more interpretable neural network family, we can efficiently generate explanations with such guarantees. We present a new model-specific algorithm for NAMs that generates provably cardinally-minimal explanations using only a logarithmic number of verification queries in the number of input features, after a parallelized preprocessing step with logarithmic runtime in the required precision is applied to each small univariate NAM component. Our algorithm not only makes the task of obtaining cardinally-minimal explanations feasible, but even outperforms existing algorithms designed to find the relaxed variant of subset-minimal explanations - which may be larger and less informative but easier to compute - despite our algorithm solving a much more difficult task. Our experiments demonstrate that, compared to previous algorithms, our approach provides provably smaller explanations than existing works and substantially reduces the computation time. Moreover, we show that our generated provable explanations offer benefits that are unattainable by standard sampling-based techniques typically used to interpret NAMs.
- Abstract(参考訳): ニューラルネットワークのポストホックな説明法が大幅に進歩したにもかかわらず、多くはヒューリスティックであり、証明可能な保証がない。
証明可能な保証を持つ説明を得るための鍵となるアプローチは、入力特徴の基数最小のサブセットを特定することである。
しかしながら、標準的なニューラルネットワークでは、このタスクは、NPハードである入力特徴数において、最悪のケースで指数的な検証クエリ数を要求するため、しばしば計算不可能である。
本研究では,最近のニューラルネットワークファミリであるニューラル付加モデル(NAMs)について,そのような保証によって効率的に説明を生成可能であることを示す。
そこで本研究では,各単変量NAMコンポーネントに対して,対数実行時の並列化前処理ステップを適用した後に,入力特徴量における検証クエリの対数だけを用いて,確に最小限の説明を生成可能なNAMのための新しいモデル固有アルゴリズムを提案する。
我々のアルゴリズムは、基本的な最小説明を得るタスクを実現可能にするだけでなく、より難しいタスクを解くにもかかわらず、サブセット最小説明の緩和された変種を見つけるために設計された既存のアルゴリズムを上回ります。
我々の実験は,従来のアルゴリズムと比較して,既存の手法に比べて明らかに小さな説明を提供し,計算時間を著しく短縮することを示した。
さらに,提案した証明可能な説明は,NAMの解釈に一般的に使用される標準サンプリングベース手法では達成不可能な利点を提供することを示す。
関連論文リスト
- Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - Efficiently Explaining CSPs with Unsatisfiable Subset Optimization
(extended algorithms and examples) [14.163888405810635]
我々は,制約満足度問題の解法を段階的に説明する手法を最近提案した。
ここでは、コスト関数を用いて単純さを定量化する単純な推論ステップの列を説明する。
論文 参考訳(メタデータ) (2023-03-21T10:03:36Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Towards Formal Approximated Minimal Explanations of Neural Networks [0.0]
ディープニューラルネットワーク(DNN)は現在、多くのドメインで使用されている。
DNNは「ブラックボックス」であり、人間には解釈できない。
そこで本研究では,最小限の説明を求めるための効率的な検証手法を提案する。
論文 参考訳(メタデータ) (2022-10-25T11:06:37Z) - Outlier Explanation via Sum-Product Networks [10.1303427221932]
外見的な説明は、サンプルと通常のデータとを区別する一連の特徴を識別するタスクである。
既存の手法は特徴部分集合の空間におけるビームサーチに基づいている。
Sum-Product Networks (SPNs) に基づく新しい外乱説明アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-18T07:47:36Z) - Cardinality-Minimal Explanations for Monotonic Neural Networks [25.212444848632515]
本稿では,単調関数を実装したニューラルモデルに着目して,トラクタビリティを回復できるかどうかを検討する。
関連する決定問題は引き続き難解であるが、有利な時間で解決可能であることを示すことができる。
論文 参考訳(メタデータ) (2022-05-19T23:47:25Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Investigating the Scalability and Biological Plausibility of the
Activation Relaxation Algorithm [62.997667081978825]
アクティベーション・リラクシエーション(AR)アルゴリズムは、誤りアルゴリズムのバックプロパゲーションを近似するためのシンプルでロバストなアプローチを提供する。
このアルゴリズムは、学習可能な後方重みセットを導入することにより、さらに単純化され、生物学的に検証可能であることを示す。
また、元のARアルゴリズム(凍結フィードフォワードパス)の別の生物学的に信じられない仮定が、パフォーマンスを損なうことなく緩和できるかどうかについても検討する。
論文 参考訳(メタデータ) (2020-10-13T08:02:38Z) - Activation Relaxation: A Local Dynamical Approximation to
Backpropagation in the Brain [62.997667081978825]
活性化緩和(AR)は、バックプロパゲーション勾配を力学系の平衡点として構成することで動機付けられる。
我々のアルゴリズムは、正しいバックプロパゲーション勾配に迅速かつ堅牢に収束し、単一のタイプの計算単位しか必要とせず、任意の計算グラフで操作できる。
論文 参考訳(メタデータ) (2020-09-11T11:56:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。