論文の概要: A Robust Prototype-Based Network with Interpretable RBF Classifier Foundations
- arxiv url: http://arxiv.org/abs/2412.15499v1
- Date: Fri, 20 Dec 2024 02:25:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 16:24:39.919016
- Title: A Robust Prototype-Based Network with Interpretable RBF Classifier Foundations
- Title(参考訳): RBF分類器を解釈可能なロバストプロトタイプベースネットワーク
- Authors: Sascha Saralajew, Ashish Rana, Thomas Villmann, Ammar Shaker,
- Abstract要約: 解釈可能性を含む様々な特性についてPBN(Prototype-Based Networks)を解析する。
我々の深層PBNは、他のアプローチの解釈可能性の欠点を解消しつつ、異なるベンチマークで最先端の分類精度を得る。
- 参考スコア(独自算出の注目度): 8.451770348928179
- License:
- Abstract: Prototype-based classification learning methods are known to be inherently interpretable. However, this paradigm suffers from major limitations compared to deep models, such as lower performance. This led to the development of the so-called deep Prototype-Based Networks (PBNs), also known as prototypical parts models. In this work, we analyze these models with respect to different properties, including interpretability. In particular, we focus on the Classification-by-Components (CBC) approach, which uses a probabilistic model to ensure interpretability and can be used as a shallow or deep architecture. We show that this model has several shortcomings, like creating contradicting explanations. Based on these findings, we propose an extension of CBC that solves these issues. Moreover, we prove that this extension has robustness guarantees and derive a loss that optimizes robustness. Additionally, our analysis shows that most (deep) PBNs are related to (deep) RBF classifiers, which implies that our robustness guarantees generalize to shallow RBF classifiers. The empirical evaluation demonstrates that our deep PBN yields state-of-the-art classification accuracy on different benchmarks while resolving the interpretability shortcomings of other approaches. Further, our shallow PBN variant outperforms other shallow PBNs while being inherently interpretable and exhibiting provable robustness guarantees.
- Abstract(参考訳): 原型に基づく分類学習法は本質的に解釈可能であることが知られている。
しかし、このパラダイムは、性能の低下など、ディープモデルと比較して大きな制限に悩まされている。
これにより、PBN(Deep Prototype-Based Networks)と呼ばれる、プロトタイプ部品モデル(prototypeal parts model)が開発された。
本研究では,解釈可能性を含む様々な特性について,これらのモデルを解析する。
特に,解釈可能性を確保するために確率モデルを用いて,浅層アーキテクチャや深層アーキテクチャとして使用できるCBCアプローチに注目した。
このモデルには、矛盾する説明を作成するなど、いくつかの欠点があることが示されています。
これらの知見に基づいて,これらの問題を解決するCBCの拡張を提案する。
さらに、この拡張がロバスト性を保証することを証明し、ロバスト性を最適化する損失を導出する。
さらに分析の結果,ほとんどの(深度)PBNは(深度)RBF分類器と関連していることが明らかとなった。
実験により,我々の深部PBNは,他の手法の解釈可能性の欠点を解消しつつ,異なるベンチマークで最先端の分類精度が得られることを示した。
さらに、我々の浅いPBN変種は、本質的に解釈可能であり、証明可能な堅牢性保証を示しながら、他の浅いPBNよりも優れている。
関連論文リスト
- Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - Isomorphic Pruning for Vision Models [56.286064975443026]
構造化プルーニングは、冗長なサブ構造を取り除くことによって、ディープニューラルネットワークの計算オーバーヘッドを低減する。
Isomorphic Pruningは、ネットワークアーキテクチャの範囲で有効性を示すシンプルなアプローチである。
論文 参考訳(メタデータ) (2024-07-05T16:14:53Z) - Robust Text Classification: Analyzing Prototype-Based Networks [12.247144383314177]
PBN(Prototype-Based Networks)は、コンピュータビジョンタスクのノイズに対して堅牢であることが示されている。
本研究では, PBN がテキスト分類タスクに変換するロバスト性について, ターゲットとスタティックの両方の攻撃条件下で検討する。
PBNsの解釈性はPBNsの強靭性の性質を理解するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2023-11-11T19:34:06Z) - Evaluation and Improvement of Interpretability for Self-Explainable
Part-Prototype Networks [43.821442711496154]
パートプロトタイプネットワークは、固有の解釈可能性と非解釈可能ネットワークと同等の精度で、幅広い研究の関心を集めている。
本研究は,パートプロトタイプネットワークの解釈可能性について定量的かつ客観的に評価する試みである。
本研究では, 浅層深度特徴アライメントモジュールとスコアアグリゲーションモジュールを備えた高精細な部分プロトタイプネットワークを提案し, プロトタイプの解釈性を向上させる。
論文 参考訳(メタデータ) (2022-12-12T14:59:11Z) - Validation Diagnostics for SBI algorithms based on Normalizing Flows [55.41644538483948]
本研究は,NFに基づく多次元条件(後)密度推定器の検証診断を容易にすることを提案する。
また、局所的な一貫性の結果に基づいた理論的保証も提供する。
この作業は、より良い特定モデルの設計を支援したり、新しいSBIアルゴリズムの開発を促進するのに役立つだろう。
論文 参考訳(メタデータ) (2022-11-17T15:48:06Z) - Clustering Effect of (Linearized) Adversarial Robust Models [60.25668525218051]
本稿では, 敵の強靭性に対する新たな理解を提案し, ドメイン適応や頑健性向上といったタスクに適用する。
提案したクラスタリング戦略の合理性と優越性を実験的に評価した。
論文 参考訳(メタデータ) (2021-11-25T05:51:03Z) - Understanding Structural Vulnerability in Graph Convolutional Networks [27.602802961213236]
グラフ畳み込みネットワーク(GCN)は、グラフ構造に対する敵攻撃に対して脆弱である。
構造逆例はGCNの非ロバストアグリゲーションスキームに起因していると考えられる。
その結果,GCN の構造的攻撃に対するロバスト性は著しく向上する可能性が示唆された。
論文 参考訳(メタデータ) (2021-08-13T15:07:44Z) - Estimating the Robustness of Classification Models by the Structure of
the Learned Feature-Space [10.418647759223964]
固定テストセットは、可能なデータバリエーションのごく一部しかキャプチャできないため、制限され、新しい過度なソリューションを生成する傾向にある、と私たちは主張する。
これらの欠点を克服するために、学習した特徴空間の構造から直接モデルのロバスト性を推定することを提案する。
論文 参考訳(メタデータ) (2021-06-23T10:52:29Z) - Attentional Prototype Inference for Few-Shot Segmentation [128.45753577331422]
数発のセグメンテーションのための確率的潜在変数フレームワークである注意型プロトタイプ推論(API)を提案する。
我々は各オブジェクトカテゴリのプロトタイプを表現するためにグローバル潜在変数を定義し、確率分布としてモデル化する。
我々は4つのベンチマークで広範な実験を行い、提案手法は最先端のプロトタイプベースの手法よりも、少なくとも競争力があり、しばしば優れた性能が得られる。
論文 参考訳(メタデータ) (2021-05-14T06:58:44Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。