論文の概要: SIDE: Sparse Information Disentanglement for Explainable Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2507.19321v1
- Date: Fri, 25 Jul 2025 14:34:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-28 16:16:48.99598
- Title: SIDE: Sparse Information Disentanglement for Explainable Artificial Intelligence
- Title(参考訳): SIDE:説明可能な人工知能のためのスパース情報分散
- Authors: Viktar Dubovik, Łukasz Struski, Jacek Tabor, Dawid Rymarczyk,
- Abstract要約: プロトタイプパートベースのニューラルネットワークは、概念レベルの説明を提供することによって、有望なソリューションとして登場した。
本稿では,SIDE(Sparse Information Disentanglement for Explainability)を提案する。
- 参考スコア(独自算出の注目度): 9.975642488603937
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding the decisions made by deep neural networks is essential in high-stakes domains such as medical imaging and autonomous driving. Yet, these models often lack transparency, particularly in computer vision. Prototypical-parts-based neural networks have emerged as a promising solution by offering concept-level explanations. However, most are limited to fine-grained classification tasks, with few exceptions such as InfoDisent. InfoDisent extends prototypical models to large-scale datasets like ImageNet, but produces complex explanations. We introduce Sparse Information Disentanglement for Explainability (SIDE), a novel method that improves the interpretability of prototypical parts through a dedicated training and pruning scheme that enforces sparsity. Combined with sigmoid activations in place of softmax, this approach allows SIDE to associate each class with only a small set of relevant prototypes. Extensive experiments show that SIDE matches the accuracy of existing methods while reducing explanation size by over $90\%$, substantially enhancing the understandability of prototype-based explanations.
- Abstract(参考訳): ディープニューラルネットワークによる決定を理解することは、医療画像や自律運転といった高度な領域において不可欠である。
しかし、これらのモデルは、特にコンピュータビジョンにおいて透明性を欠いていることが多い。
プロトタイプパートベースのニューラルネットワークは、概念レベルの説明を提供することによって、有望なソリューションとして登場した。
しかし、ほとんどがきめ細かい分類タスクに限定されており、InfoDisentのような例外は少ない。
InfoDisentは、プロトタイプモデルをImageNetのような大規模データセットに拡張するが、複雑な説明を生成する。
SIDE(Sparse Information Disentanglement for Explainability)は,スパーシティを強制する専用トレーニングおよびプルーニング方式により,原型部品の解釈性を向上させる新しい手法である。
ソフトマックスの代わりにシグモイドの活性化と組み合わせることで、SIDEは各クラスを関連するプロトタイプの小さなセットだけに関連付けることができる。
大規模な実験により,SIDEは既存の手法の精度と一致し,説明の精度を90 %以上削減し,プロトタイプによる説明の理解可能性を大幅に向上させた。
関連論文リスト
- Beyond Patches: Mining Interpretable Part-Prototypes for Explainable AI [10.687381287384524]
意味のある領域から解釈可能なプロトタイプを学習するために,PCMNet(Part-prototypeal concept mining network)を提案する。
PCMNetはプロトタイプを概念グループにクラスタし、追加のアノテーションを必要とせずに意味論的に基礎化された説明を作成する。
実験の結果,PCMNetはクリーンで隠蔽されたシナリオ下で高いレベルの解釈可能性,安定性,堅牢性を提供できることがわかった。
論文 参考訳(メタデータ) (2025-04-16T15:48:21Z) - Interpretable Image Classification via Non-parametric Part Prototype Learning [14.390730075612248]
解釈可能な意思決定プロセスで画像を分類することは、コンピュータビジョンにおける長年の問題である。
近年、自己説明可能なニューラルネットワークのアプローチとして、プロトタイプのPart Networksが注目を集めている。
本稿では,各クラスに対して意味的に固有のオブジェクト部品の集合を学習する,部分的解釈可能な画像分類のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-13T10:46:53Z) - InfoDisent: Explainability of Image Classification Models by Information Disentanglement [10.89767277352967]
本稿では,情報ボトルネックの原理に基づく説明可能性のハイブリッドアプローチであるInfoDisentを紹介する。
本稿では,各種データセットを対象とした計算実験とユーザスタディを通じてInfoDisentの有効性を示す。
論文 参考訳(メタデータ) (2024-09-16T14:39:15Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Visual Recognition with Deep Nearest Centroids [57.35144702563746]
我々は、概念的にエレガントで驚くほど効果的な大規模視覚認識ネットワークである深部セントロイド(DNC)を考案した。
パラメトリックと比較すると、DNCは画像分類(CIFAR-10, ImageNet)に優れ、画像認識(ADE20K, Cityscapes)を大いに起動する。
論文 参考訳(メタデータ) (2022-09-15T15:47:31Z) - A Lightweight, Efficient and Explainable-by-Design Convolutional Neural
Network for Internet Traffic Classification [9.365794791156972]
本稿では、インターネットトラフィック分類のための新しい軽量・効率的・eXplainable-by-design畳み込みニューラルネットワーク(LEXNet)を提案する。
LEXNetは(軽量で効率の良い目的のために)新しい残留ブロックと(説明可能性のために)プロトタイプ層に依存している。
商用グレードのデータセットに基づいて、LEXNetは最先端のニューラルネットワークと同じ精度を維持することに成功した。
論文 参考訳(メタデータ) (2022-02-11T10:21:34Z) - This looks more like that: Enhancing Self-Explaining Models by
Prototypical Relevance Propagation [17.485732906337507]
本稿では,自己説明型ネットワークであるProtoPNetのアーティファクトのスペクトルの存在下でのケーススタディを示す。
より正確なモデル認識説明を生成するための新しい手法を提案する。
クリーンなデータセットを得るために,アーティファクト画像を分離するためのマルチビュークラスタリング戦略を提案する。
論文 参考訳(メタデータ) (2021-08-27T09:55:53Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Simplifying the explanation of deep neural networks with sufficient and
necessary feature-sets: case of text classification [0.0]
ディープニューラルネットワーク(DNN)は、医学、ファイナンス、法律など、さまざまな領域で幅広い問題を解決する素晴らしいパフォーマンスを実証している。
彼らの優れたパフォーマンスにもかかわらず、彼らは長い間ブラックボックスシステムと見なされ、それらを説明することができない良い結果をもたらしてきた。
本稿では,1次元(1次元)畳み込みニューラルネットワーク(CNN)の予測説明を,十分かつ必要な特徴セットを同定して単純化する手法を提案する。
論文 参考訳(メタデータ) (2020-10-08T02:01:21Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。