論文の概要: Faster Verified Explanations for Neural Networks
- arxiv url: http://arxiv.org/abs/2512.00164v1
- Date: Fri, 28 Nov 2025 19:05:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.09594
- Title: Faster Verified Explanations for Neural Networks
- Title(参考訳): ニューラルネットワークの高速な検証説明
- Authors: Alessandro De Palma, Greta Dolcetti, Caterina Urban,
- Abstract要約: 本稿では、検証された説明を計算するための新しいアルゴリズムFaVeXを提案する。
FaVeXはバッチと逐次処理を動的に組み合わせることで計算を高速化する。
本稿では,検証者-最適ロバストな説明という,検証された説明の新規かつ階層的な定義を提案する。
- 参考スコア(独自算出の注目度): 43.730047263599005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Verified explanations are a theoretically-principled way to explain the decisions taken by neural networks, which are otherwise black-box in nature. However, these techniques face significant scalability challenges, as they require multiple calls to neural network verifiers, each of them with an exponential worst-case complexity. We present FaVeX, a novel algorithm to compute verified explanations. FaVeX accelerates the computation by dynamically combining batch and sequential processing of input features, and by reusing information from previous queries, both when proving invariances with respect to certain input features, and when searching for feature assignments altering the prediction. Furthermore, we present a novel and hierarchical definition of verified explanations, termed verifier-optimal robust explanations, that explicitly factors the incompleteness of network verifiers within the explanation. Our comprehensive experimental evaluation demonstrates the superior scalability of both FaVeX, and of verifier-optimal robust explanations, which together can produce meaningful formal explanation on networks with hundreds of thousands of non-linear activations.
- Abstract(参考訳): 検証された説明は、本質的にはブラックボックスであるニューラルネットワークによってなされた決定を説明する理論的に導かれた方法である。
しかしながら、これらのテクニックは、ニューラルネットワーク検証器への複数の呼び出しを必要とするため、大きなスケーラビリティ上の課題に直面している。
本稿では、検証された説明を計算するための新しいアルゴリズムFaVeXを提案する。
FaVeXは、入力特徴のバッチ処理とシーケンシャル処理を動的に組み合わせて計算を高速化し、特定の入力特徴に関する不変性を証明する場合と、予測を変更する特徴割り当てを探索する場合の両方において、以前のクエリからの情報を再利用する。
さらに,検証者-最適ロバストな説明とよばれる,検証者-最適ロバストな説明の新規かつ階層的な定義を提示し,その説明の中でネットワーク検証者の不完全性を明示的に決定する。
我々の総合的な実験的評価は、FaVeXのスケーラビリティと検証-最適ロバストな説明の両方の優れた拡張性を示し、同時に数十万の非線形アクティベーションを持つネットワーク上で有意義な形式的な説明をもたらすことができる。
関連論文リスト
- Explaining, Fast and Slow: Abstraction and Refinement of Provable Explanations [6.902279764206365]
本稿では,ニューラルネットワークの予測に関する十分な説明を効率よく計算するための,新しい抽象化・リファインメント手法を提案する。
提案手法は,ニューラルネットワークの予測に十分な説明を得ることの効率を高めるとともに,ネットワークの予測を抽象化レベルによって詳細に解釈する。
論文 参考訳(メタデータ) (2025-06-10T07:04:13Z) - Efficient Contrastive Explanations on Demand [7.109897082275965]
本稿では,機械学習モデルに対して,いわゆるコントラスト的説明を計算するための新しいアルゴリズムを提案する。
また,本論文では,説明文をリストアップし,最小の対照的な説明文を見つけるための新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-24T08:24:10Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Going Beyond Neural Network Feature Similarity: The Network Feature
Complexity and Its Interpretation Using Category Theory [64.06519549649495]
機能的に等価な機能と呼ぶものの定義を提供します。
これらの特徴は特定の変換の下で等価な出力を生成する。
反復的特徴マージ(Iterative Feature Merging)というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-10T16:27:12Z) - Robust Explanation Constraints for Neural Networks [33.14373978947437]
ニューラルネットワークの意図で使われるポストホックな説明法は、しばしば彼らの出力を信頼するのに役立つと言われている。
我々のトレーニング方法は、ニューラルネットワークを学習できる唯一の方法であり、6つのテストネットワークでテストされた堅牢性に関する洞察を持つ。
論文 参考訳(メタデータ) (2022-12-16T14:40:25Z) - Why Neural Networks Work [0.32228025627337864]
完全接続型フィードフォワードニューラルネットワーク(FCNN)の多くの特性は、1対の操作の解析から説明可能であると論じる。
文献で論じられた現象がいかに拡大・スパーシフィケーションが説明できるかを示す。
論文 参考訳(メタデータ) (2022-11-26T18:15:17Z) - A Lightweight, Efficient and Explainable-by-Design Convolutional Neural
Network for Internet Traffic Classification [9.365794791156972]
本稿では、インターネットトラフィック分類のための新しい軽量・効率的・eXplainable-by-design畳み込みニューラルネットワーク(LEXNet)を提案する。
LEXNetは(軽量で効率の良い目的のために)新しい残留ブロックと(説明可能性のために)プロトタイプ層に依存している。
商用グレードのデータセットに基づいて、LEXNetは最先端のニューラルネットワークと同じ精度を維持することに成功した。
論文 参考訳(メタデータ) (2022-02-11T10:21:34Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - How Much Can I Trust You? -- Quantifying Uncertainties in Explaining
Neural Networks [19.648814035399013]
説明可能なAI(XAI)は、ディープニューラルネットワークなどの学習マシンが生成した予測の解釈を提供することを目的としている。
ニューラルネットワークの任意の説明法をベイズニューラルネットワークの説明法に変換するための新しいフレームワークを提案する。
様々な実験において,本手法の有効性と有用性を示す。
論文 参考訳(メタデータ) (2020-06-16T08:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。