論文の概要: Local-to-Global Logical Explanations for Deep Vision Models
- arxiv url: http://arxiv.org/abs/2601.13404v1
- Date: Mon, 19 Jan 2026 21:21:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.066661
- Title: Local-to-Global Logical Explanations for Deep Vision Models
- Title(参考訳): 深部視覚モデルのための局所-グローバル論理的説明法
- Authors: Bhavan Vasu, Giuseppe Raffa, Prasad Tadepalli,
- Abstract要約: ディープニューラルネットワークは 画像の分類に有効だが 不透明で解釈が難しい
我々は,ブラックボックスモデルに対する局所的およびグローバル的説明手法を導入し,人間の認識可能な原始概念の観点から説明を生成する。
これらの説明は、難解な視覚データセットで説明しようとするブラックボックスモデルに対して、高い忠実度とカバレッジを維持していることを示す。
- 参考スコア(独自算出の注目度): 8.433233101044197
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: While deep neural networks are extremely effective at classifying images, they remain opaque and hard to interpret. We introduce local and global explanation methods for black-box models that generate explanations in terms of human-recognizable primitive concepts. Both the local explanations for a single image and the global explanations for a set of images are cast as logical formulas in monotone disjunctive-normal-form (MDNF), whose satisfaction guarantees that the model yields a high score on a given class. We also present an algorithm for explaining the classification of examples into multiple classes in the form of a monotone explanation list over primitive concepts. Despite their simplicity and interpretability we show that the explanations maintain high fidelity and coverage with respect to the blackbox models they seek to explain in challenging vision datasets.
- Abstract(参考訳): ディープニューラルネットワークは画像の分類に極めて効果的であるが、不透明で解釈が難しいままである。
我々は,ブラックボックスモデルに対する局所的およびグローバル的説明手法を導入し,人間の認識可能な原始概念の観点から説明を生成する。
単一の画像に対する局所的な説明と一連の画像に対する大域的な説明の両方をモノトン解離正規形式(MDNF)の論理式としてキャストする。
また、プリミティブな概念に対する単調な説明リストの形で、サンプルを複数のクラスに分類するアルゴリズムを提案する。
その単純さと解釈可能性にもかかわらず、これらの説明は、挑戦的なビジョンデータセットで説明しようとするブラックボックスモデルに対して、高い忠実さとカバレッジを維持していることを示す。
関連論文リスト
- FaCT: Faithful Concept Traces for Explaining Neural Network Decisions [56.796533084868884]
ディープネットワークは、幅広いタスクで顕著なパフォーマンスを示しているが、それらの機能に関するグローバルな概念レベルの理解は、依然として重要な課題である。
本稿では,概念に基づく説明の忠実さを強調し,モデル独立な機械的概念説明を用いた新しいモデルを提案する。
私たちの概念はクラス間で共有され、あらゆるレイヤから、ロジットへの貢献と入力-視覚化を忠実にトレースすることができます。
論文 参考訳(メタデータ) (2025-10-29T13:35:46Z) - Generating Part-Based Global Explanations Via Correspondence [8.83354835766461]
ユーザ定義部分ラベルを限られた画像集合から活用し,より大規模なデータセットに効率的に転送する手法を提案する。
これにより、部分ベースの局所的な説明を集約することでグローバルな象徴的説明を生成することができ、最終的には大規模なモデル決定に対して人間に理解可能な説明を提供する。
論文 参考訳(メタデータ) (2025-09-18T20:00:49Z) - ConLUX: Concept-Based Local Unified Explanations [14.110188927768736]
ツールネームは、任意の機械学習モデルに対して概念ベースのローカル説明を提供するための一般的なフレームワークである。
我々は、LIME、Kernel SHAP、Anchor、LOREの4種類の説明手法でツール名をインスタンス化した。
評価の結果,ツールネームはより忠実な説明を提供し,ユーザにとってより理解しやすいものとなった。
論文 参考訳(メタデータ) (2024-10-16T10:34:11Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Interpreting Vision and Language Generative Models with Semantic Visual
Priors [3.3772986620114374]
我々は、出力シーケンス全体の意味表現を活用する意味のある説明を生成できるSHAPに基づくフレームワークを開発する。
提案手法は,従来の手法よりも計算コストが低く,意味論的に表現力に富んだ説明を生成する。
論文 参考訳(メタデータ) (2023-04-28T17:10:08Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Global explainability in aligned image modalities [0.0]
本研究では,各画素位置が画像オブジェクト上の類似相対位置を表すように,自然に整列する画像モダリティに着目した。
本稿では,ラベルやグローバルな説明を得るための簡単な方法として,画像に関する説明の画素単位での集約を提案する。
そして、これらの手法を、自然に整列した超広視野網膜画像に適用する。
論文 参考訳(メタデータ) (2021-12-17T16:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。