論文の概要: FAME: Formal Abstract Minimal Explanation for Neural Networks
- arxiv url: http://arxiv.org/abs/2603.10661v1
- Date: Wed, 11 Mar 2026 11:19:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.913838
- Title: FAME: Formal Abstract Minimal Explanation for Neural Networks
- Title(参考訳): FAME: ニューラルネットワークのための形式的抽象最小記述法
- Authors: Ryma Boumazouza, Raya Elsaleh, Melanie Ducoffe, Shahaf Bassan, Guy Katz,
- Abstract要約: 本稿では,抽象解釈に基づく新たな帰納的説明のクラスであるFAMEを提案する。
FAMEは、説明サイズの削減を図りながら、大規模なニューラルネットワークにスケールする最初の方法である。
VERIX+に対してFAMEをベンチマークし、説明サイズと実行時の両方で一貫した利得を示す。
- 参考スコア(独自算出の注目度): 5.089700375729287
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose FAME (Formal Abstract Minimal Explanations), a new class of abductive explanations grounded in abstract interpretation. FAME is the first method to scale to large neural networks while reducing explanation size. Our main contribution is the design of dedicated perturbation domains that eliminate the need for traversal order. FAME progressively shrinks these domains and leverages LiRPA-based bounds to discard irrelevant features, ultimately converging to a formal abstract minimal explanation. To assess explanation quality, we introduce a procedure that measures the worst-case distance between an abstract minimal explanation and a true minimal explanation. This procedure combines adversarial attacks with an optional VERIX+ refinement step. We benchmark FAME against VERIX+ and demonstrate consistent gains in both explanation size and runtime on medium- to large-scale neural networks.
- Abstract(参考訳): 本稿では,抽象解釈を基礎とした新たな帰納的説明のクラスであるFAME(Formal Abstract Minimal Explanations)を提案する。
FAMEは、説明サイズの削減を図りながら、大規模なニューラルネットワークにスケールする最初の方法である。
我々の主な貢献は、トラバース秩序の必要性を排除した専用の摂動領域の設計である。
FAMEはこれらの領域を徐々に縮小し、LiRPAベースの境界を利用して無関係な特徴を排除し、最終的には形式的な抽象的最小限の説明に収束する。
説明の質を評価するために,抽象的最小説明と真の最小説明との間の最悪のケース距離を測定する手順を導入する。
この手順は、敵攻撃とオプションのVERIX+改良ステップを組み合わせる。
我々は、VERIX+に対してFAMEをベンチマークし、中規模から大規模のニューラルネットワークにおいて、説明サイズと実行時の両方で一貫した利得を示す。
関連論文リスト
- Slice and Explain: Logic-Based Explanations for Neural Networks through Domain Slicing [3.847524185858632]
本稿では,ドメインスライシングを利用したNNの説明生成手法を提案する。
スライシングによって論理的制約の複雑さを減らし、説明時間を最大40%短縮する。
論文 参考訳(メタデータ) (2026-02-25T17:01:52Z) - SIDE: Sparse Information Disentanglement for Explainable Artificial Intelligence [9.975642488603937]
プロトタイプパートベースのニューラルネットワークは、概念レベルの説明を提供することによって、有望なソリューションとして登場した。
本稿では,SIDE(Sparse Information Disentanglement for Explainability)を提案する。
論文 参考訳(メタデータ) (2025-07-25T14:34:15Z) - A Lightweight Deep Exclusion Unfolding Network for Single Image Reflection Removal [68.0573194557999]
シングルイメージリフレクション除去(SIRR)は、標準的なブラインドソース分離問題である。
本稿ではSIRRのための新しいDeep Exclusion Unfolding Network(DExNet)を提案する。
DExNetは、単純な反復スパースと補助的特徴更新(i-SAFU)アルゴリズムの展開とパラメータ化によって構築される。
論文 参考訳(メタデータ) (2025-03-03T07:54:27Z) - Efficient Contrastive Explanations on Demand [7.109897082275965]
本稿では,機械学習モデルに対して,いわゆるコントラスト的説明を計算するための新しいアルゴリズムを提案する。
また,本論文では,説明文をリストアップし,最小の対照的な説明文を見つけるための新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-24T08:24:10Z) - Semantic Loss Functions for Neuro-Symbolic Structured Prediction [74.18322585177832]
このような構造に関する知識を象徴的に定義した意味的損失をトレーニングに注入する。
記号の配置に非依存であり、それによって表現される意味論にのみ依存する。
識別型ニューラルモデルと生成型ニューラルモデルの両方と組み合わせることができる。
論文 参考訳(メタデータ) (2024-05-12T22:18:25Z) - What Sketch Explainability Really Means for Downstream Tasks [121.85845328822641]
我々は、人間の脳卒中の影響を強く強調し、説明可能性のためのスケッチの独特なモダリティを探求する。
我々は軽量でポータブルな説明可能性ソリューションを提案します -- 事前訓練されたモデルとシームレスに統合するプラグインです。
論文 参考訳(メタデータ) (2024-03-14T15:22:33Z) - Interpretations Steered Network Pruning via Amortized Inferred Saliency
Maps [85.49020931411825]
限られたリソースを持つエッジデバイスにこれらのモデルをデプロイするには、畳み込みニューラルネットワーク(CNN)圧縮が不可欠である。
本稿では,新しい視点からチャネルプルーニング問題に対処するために,モデルの解釈を活用して,プルーニング過程を解析する手法を提案する。
本研究では,実時間スムーズなスムーズなスムーズなスムーズなマスク予測を行うセレクタモデルを導入することで,この問題に対処する。
論文 参考訳(メタデータ) (2022-09-07T01:12:11Z) - Connection-minimal Abduction in EL via Translation to FOL -- Technical
Report [12.90382979353427]
本稿では,接続最小仮説のクラスを音速で完全な方法で計算する方法を示す。
本手法は一階述語論理への翻訳に基づいて,素数含意に基づく仮説を構築する。
論文 参考訳(メタデータ) (2022-05-17T15:50:27Z) - How to Explain Neural Networks: A perspective of data space division [2.4499092754102874]
ディープラーニングで表されるアルゴリズムの解釈可能性はまだオープンな問題です。
本稿では,説明の2つの属性に基づく既存の説明可能な手法の欠点について論じる。
本稿では,データ空間分割の観点から,完全局所解釈可能なモデル非依存説明法(CLIMEP)の原理を提案する。
論文 参考訳(メタデータ) (2021-05-17T13:43:37Z) - Effective Version Space Reduction for Convolutional Neural Networks [61.84773892603885]
アクティブラーニングでは、サンプリングバイアスは深刻な矛盾問題を引き起こし、アルゴリズムが最適な仮説を見つけるのを妨げる可能性がある。
本稿では,畳み込みニューラルネットワークを用いた能動学習について,バージョン空間削減の原理的レンズを用いて検討する。
論文 参考訳(メタデータ) (2020-06-22T17:40:03Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。