論文の概要: Take 5: Interpretable Image Classification with a Handful of Features
- arxiv url: http://arxiv.org/abs/2303.13166v2
- Date: Sat, 5 Aug 2023 18:32:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 23:28:21.353626
- Title: Take 5: Interpretable Image Classification with a Handful of Features
- Title(参考訳): Take 5: 機能追加による解釈可能な画像分類
- Authors: Thomas Norrenbrock, Marco Rudolph, Bodo Rosenhahn
- Abstract要約: ディープニューラルネットワークにおいて,解釈可能なスパースと低次元決定層を提案する。
本研究では,SLDDモデルの方が高次元の高次元決定層よりも局所的・グローバル的に解釈しやすいことを示す。
- 参考スコア(独自算出の注目度): 23.179623765491005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks use thousands of mostly incomprehensible features to
identify a single class, a decision no human can follow. We propose an
interpretable sparse and low dimensional final decision layer in a deep neural
network with measurable aspects of interpretability and demonstrate it on
fine-grained image classification. We argue that a human can only understand
the decision of a machine learning model, if the features are interpretable and
only very few of them are used for a single decision. For that matter, the
final layer has to be sparse and, to make interpreting the features feasible,
low dimensional. We call a model with a Sparse Low-Dimensional Decision
SLDD-Model. We show that a SLDD-Model is easier to interpret locally and
globally than a dense high-dimensional decision layer while being able to
maintain competitive accuracy. Additionally, we propose a loss function that
improves a model's feature diversity and accuracy. Our more interpretable
SLDD-Model only uses 5 out of just 50 features per class, while maintaining 97%
to 100% of the accuracy on four common benchmark datasets compared to the
baseline model with 2048 features.
- Abstract(参考訳): ディープニューラルネットワークは、ほとんど理解不能な何千もの機能を使って、1つのクラスを識別する。
本稿では,深層ニューラルネットワークにおいて,解釈可能性の計測可能な側面を持つ解釈可能なスパースおよび低次元最終決定層を提案し,細粒度画像分類について実証する。
人間は、その特徴が解釈可能で、1つの決定に使用されるのはごくわずかであるならば、機械学習モデルの判断しか理解できないと主張する。
その場合、最終層はスパースでなければならず、特徴を解釈するために低次元化する必要がある。
スパース低次元決定SLDDモデルを用いたモデルと呼ぶ。
本研究では,SLDDモデルが高次元の高次元決定層よりも局所的・グローバル的に解釈しやすく,競争精度を維持可能であることを示す。
さらに,モデルの特徴の多様性と精度を向上させる損失関数を提案する。
より解釈可能なsddモデルではクラス当たり50の機能のうち5つしか使用できませんが、一般的なベンチマークデータセットで2048の機能を持つベースラインモデルと比較して、97%から100%の精度を維持しています。
関連論文リスト
- Just How Flexible are Neural Networks in Practice? [89.80474583606242]
ニューラルネットワークは、パラメータを持つ少なくとも多くのサンプルを含むトレーニングセットに適合できると広く信じられている。
しかし実際には、勾配や正規化子など、柔軟性を制限したトレーニング手順によるソリューションしか見つからない。
論文 参考訳(メタデータ) (2024-06-17T12:24:45Z) - Layer-wise Linear Mode Connectivity [52.6945036534469]
ニューラルネットワークパラメータの平均化は、2つの独立したモデルの知識の直感的な方法である。
フェデレートラーニングにおいて最も顕著に用いられている。
私たちは、単一グループやグループを平均化するモデルの性能を分析します。
論文 参考訳(メタデータ) (2023-07-13T09:39:10Z) - The Contextual Lasso: Sparse Linear Models via Deep Neural Networks [5.607237982617641]
本研究では,空間的特徴の関数として空間的パターンと係数が変化するような説明的特徴に疎線形モデルに適合する新しい統計的推定器を開発する。
実データと合成データに関する広範な実験は、学習されたモデルは、非常に透明であり、通常のラッソよりもスペーサーであることを示している。
論文 参考訳(メタデータ) (2023-02-02T05:00:29Z) - Spuriosity Rankings: Sorting Data to Measure and Mitigate Biases [62.54519787811138]
本稿では,突発的手がかりに依存したモデルバイアスを簡易かつ効果的に測定・緩和する手法を提案する。
我々は,解釈可能なネットワークの深部神経的特徴をベースとして,それらのクラス内の画像のランク付けを行う。
以上の結果から,素早い特徴依存によるモデルバイアスは,モデルがどのようにトレーニングされたかよりも,モデルがトレーニングされていることの影響がはるかに大きいことが示唆された。
論文 参考訳(メタデータ) (2022-12-05T23:15:43Z) - Part-Based Models Improve Adversarial Robustness [57.699029966800644]
人間の事前知識とエンドツーエンドの学習を組み合わせることで、ディープニューラルネットワークの堅牢性を向上させることができることを示す。
我々のモデルは、部分分割モデルと小さな分類器を組み合わせて、オブジェクトを同時に部品に分割するようにエンドツーエンドに訓練されている。
実験の結果,これらのモデルによりテクスチャバイアスが低減され,一般的な汚職に対する堅牢性が向上し,相関が急上昇することが示唆された。
論文 参考訳(メタデータ) (2022-09-15T15:41:47Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - A Distillation Learning Model of Adaptive Structural Deep Belief Network
for AffectNet: Facial Expression Image Database [0.0]
我々は,Deep Belief Network (DBN) の適応型構造学習法を開発した。
本稿では,表情画像データセットであるAffectNetに適用する。
分類精度は78.4%から91.3%に向上した。
論文 参考訳(メタデータ) (2021-10-25T08:01:36Z) - It's FLAN time! Summing feature-wise latent representations for
interpretability [0.0]
FLAN(Feature-wise Latent Additive Networks)と呼ばれる構造拘束型ニューラルネットワークの新たなクラスを提案する。
FLANは各入力機能を別々に処理し、それぞれに共通の潜在空間の表現を演算する。
これらの特徴的潜在表現は単純に要約され、集約された表現は予測に使用される。
論文 参考訳(メタデータ) (2021-06-18T12:19:33Z) - DoLFIn: Distributions over Latent Features for Interpretability [8.807587076209568]
ニューラルネットワークモデルにおける解釈可能性を実現するための新しい戦略を提案する。
我々のアプローチは、確率を中心量として使う成功に基づいている。
DoLFInは解釈可能なソリューションを提供するだけでなく、古典的なCNNやBiLSTMテキスト分類よりも若干優れています。
論文 参考訳(メタデータ) (2020-11-10T18:32:53Z) - How do Decisions Emerge across Layers in Neural Models? Interpretation
with Differentiable Masking [70.92463223410225]
DiffMaskは、差分性を維持しながら入力のサブセットをマスクアウトすることを学ぶ。
入力トークンを包含または無視する決定は、中間隠蔽層に基づく単純なモデルで行われる。
これにより、属性のヒートマップをプロットするだけでなく、ネットワーク層間で意思決定がどのように形成されるかを分析することができます。
論文 参考訳(メタデータ) (2020-04-30T17:36:14Z) - Overinterpretation reveals image classification model pathologies [15.950659318117694]
人気のあるベンチマーク上の畳み込みニューラルネットワーク(CNN)は、意味論的に健全な特徴がなくても高い精度を示すことができるような、厄介な病理を示す。
我々は、CIFAR-10とImageNetでトレーニングされたニューラルネットワークが過剰解釈に悩まされていることを実証した。
これらのパターンは、現実のデプロイメントにおける潜在的なモデルの脆弱性を補うものだが、実際には、ベンチマークの統計的パターンとして、高いテスト精度を達成するのに十分である。
論文 参考訳(メタデータ) (2020-03-19T17:12:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。