論文の概要: Learning Interpretable Concept Groups in CNNs
- arxiv url: http://arxiv.org/abs/2109.10078v1
- Date: Tue, 21 Sep 2021 10:32:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 20:35:31.232303
- Title: Learning Interpretable Concept Groups in CNNs
- Title(参考訳): CNNにおける解釈可能な概念群学習
- Authors: Saurabh Varshneya (1), Antoine Ledent (1), Robert A. Vandermeulen (2),
Yunwen Lei (3), Matthias Enders (4), Damian Borth (5) and Marius Kloft (1)
((1) Technical University of Kaiserslautern, (2) Technical University of
Berlin, (3) University of Birmingham, (4) NPZ Innovation GmbH, (5) University
of St.Gallen, Switzerland)
- Abstract要約: 概念グループ学習(CGL)は、各レイヤ内のフィルタを概念グループに分割することで、解釈可能なCNNフィルタのトレーニングを促進する。
正規化戦略は、同じグループのフィルタが、与えられた層に対して同様の画像領域でアクティブになるように強制する。
我々は,標準的な解釈可能性評価手法を用いて解釈可能性を定量的に評価し,ほとんどの場合,その手法が解釈可能性のスコアを向上させることを発見した。
- 参考スコア(独自算出の注目度): 1.8311309763421928
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel training methodology -- Concept Group Learning (CGL) --
that encourages training of interpretable CNN filters by partitioning filters
in each layer into concept groups, each of which is trained to learn a single
visual concept. We achieve this through a novel regularization strategy that
forces filters in the same group to be active in similar image regions for a
given layer. We additionally use a regularizer to encourage a sparse weighting
of the concept groups in each layer so that a few concept groups can have
greater importance than others. We quantitatively evaluate CGL's model
interpretability using standard interpretability evaluation techniques and find
that our method increases interpretability scores in most cases. Qualitatively
we compare the image regions that are most active under filters learned using
CGL versus filters learned without CGL and find that CGL activation regions
more strongly concentrate around semantically relevant features.
- Abstract(参考訳): 本稿では,各層におけるフィルタを概念群に分割することで,解釈可能なCNNフィルタの学習を促進する新しい学習手法である概念群学習(Concept Group Learning, CGL)を提案する。
我々は、同じグループのフィルタを特定の層に対して同じ画像領域でアクティブにさせる新しい正規化戦略によってこれを達成する。
さらに、いくつかの概念群が他の層よりも大きな重要性を持つように、各層における概念群の疎重み付けを促すために正規化子を用いる。
標準解釈可能性評価手法を用いてcglのモデル解釈可能性を定量的に評価し, ほとんどの場合, 本手法が解釈可能性スコアを増加させることを確認した。
CGLを用いて学習したフィルタの下で最もアクティブな画像領域と、CGLで学習したフィルタを比較し、CGLアクティベーション領域が意味論的に関連性のある特徴に強く集中していることを見出した。
関連論文リスト
- Siamese Transformer Networks for Few-shot Image Classification [9.55588609556447]
人間は視覚分類タスクにおいて顕著な熟練度を示し、最小限の例で新しい画像を正確に認識し分類する。
既存の少数の画像分類手法は、大域的特徴と局所的特徴の両方を強調し、両者を統合することを考える研究はほとんどない。
我々は,シームズ変圧器ネットワーク(STN)に基づく新しいアプローチを提案する。
我々の戦略は, 複雑な特徴適応モジュールの必要性を回避し, 画像分類におけるグローバルな特徴と局所的な特徴の可能性を効果的に活用する。
論文 参考訳(メタデータ) (2024-07-16T14:27:23Z) - Towards Realistic Zero-Shot Classification via Self Structural Semantic
Alignment [53.2701026843921]
大規模事前訓練型視覚言語モデル(VLM)はゼロショット分類に有効であることが証明されている。
本稿では,アノテーションではなく,より広い語彙を前提とした,より難易度の高いゼロショット分類(Realistic Zero-Shot Classification)を提案する。
本稿では,ラベルのないデータから構造意味情報を抽出し,同時に自己学習を行う自己構造意味アライメント(S3A)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-24T17:56:46Z) - Feature Activation Map: Visual Explanation of Deep Learning Models for
Image Classification [17.373054348176932]
本研究では,機能活性化マップ (FAM) と呼ばれるポストホック解釈ツールを提案する。
FAMは、FC層を分類器として使用せずにディープラーニングモデルを解釈できる。
提案したFAMアルゴリズムの有効性を実証するために,10種類の深層学習モデルを用いて,少数ショット画像分類,コントラスト学習画像分類,画像検索タスクを行った。
論文 参考訳(メタデータ) (2023-07-11T05:33:46Z) - Learning What Not to Segment: A New Perspective on Few-Shot Segmentation [63.910211095033596]
近年では、FSS ( few-shot segmentation) が広く開発されている。
本稿では,問題を緩和するための新鮮で直接的な知見を提案する。
提案されたアプローチのユニークな性質を踏まえて、より現実的で挑戦的な設定にまで拡張する。
論文 参考訳(メタデータ) (2022-03-15T03:08:27Z) - Weakly-Supervised Semantic Segmentation with Visual Words Learning and
Hybrid Pooling [38.336345235423586]
画像レベルのラベルを持つWSSS(Weakly Supervised Semantic Activation)メソッドは、一般的に分類ネットワークをトレーニングして、初期粗いセグメンテーションラベルとしてクラスマップ(CAM)を生成する。
これら2つの問題は、分類ネットワークのトレーニングにおいて、画像レベルの監督とグローバル情報の集約のみに起因する。
本研究では,視覚単語学習モジュールとハイブリッドプーリング手法を提案し,これらを分類ネットワークに組み込んで上記の問題を緩和する。
論文 参考訳(メタデータ) (2022-02-10T03:19:08Z) - TSG: Target-Selective Gradient Backprop for Probing CNN Visual Saliency [72.9106103283475]
我々は、畳み込みニューラルネットワークを解釈するために視覚的サリエンシ、すなわち視覚的説明について研究する。
これらの観測に触発されて、我々はTSG(Target-Selective Gradient)バックプロップと呼ばれる新しいビジュアル・サリエンシ・フレームワークを提案する。
提案したTSGはTSG-ConvとTSG-FCの2つのコンポーネントから構成され、それぞれ畳み込み層と完全連結層の勾配を補正する。
論文 参考訳(メタデータ) (2021-10-11T12:00:20Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Training Interpretable Convolutional Neural Networks by Differentiating
Class-specific Filters [64.46270549587004]
畳み込みニューラルネットワーク(CNN)は、様々なタスクでうまく使われている。
CNNは、しばしば「ブラックボックス」と解釈可能性の欠如とみなされる。
本稿では,クラス固有のフィルタを奨励することで,解釈可能なCNNを訓練する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-16T09:12:26Z) - Attentive CutMix: An Enhanced Data Augmentation Approach for Deep
Learning Based Image Classification [58.20132466198622]
そこで我々は,CutMixに基づく自然拡張拡張戦略であるAttentive CutMixを提案する。
各トレーニングイテレーションにおいて、特徴抽出器から中間注意マップに基づいて最も記述性の高い領域を選択する。
提案手法は単純かつ有効であり,実装が容易であり,ベースラインを大幅に向上させることができる。
論文 参考訳(メタデータ) (2020-03-29T15:01:05Z) - Reinforced active learning for image segmentation [34.096237671643145]
深部強化学習(RL)に基づく意味的セグメンテーションのための新しいアクティブラーニング戦略を提案する。
エージェントは、ラベルなしデータのプールからラベル付けされる小さな情報領域(画像全体とは対照的に)のサブセットを選択するポリシーを学ぶ。
本手法では, 意味的セグメンテーション問題の大規模性質に適応して, 能動的学習のための深部Q-network (DQN) の定式化を新たに提案する。
論文 参考訳(メタデータ) (2020-02-16T14:03:06Z) - FrequentNet: A Novel Interpretable Deep Learning Model for Image
Classification [1.7205106391379026]
本稿では,画像分類の利点を活かした新しいベースライン深層学習モデルを提案する。
PCANet: A Simple Deep Learning Baseline for Image Classification?
論文 参考訳(メタデータ) (2020-01-04T04:31:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。