論文の概要: Interpretable Compositional Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2107.04474v1
- Date: Fri, 9 Jul 2021 15:01:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 13:46:44.488767
- Title: Interpretable Compositional Convolutional Neural Networks
- Title(参考訳): 解釈可能な構成畳み込みニューラルネットワーク
- Authors: Wen Shen, Zhihua Wei, Shikun Huang, Binbin Zhang, Jiaqi Fan, Ping
Zhao, Quanshi Zhang
- Abstract要約: 本稿では,従来の畳み込みニューラルネットワーク(CNN)を解釈可能な合成CNNに変換する手法を提案する。
合成CNNでは、各フィルタは、明確な意味を持つ特定の合成対象部分または画像領域を一貫して表現することになっている。
我々の手法は様々な種類のCNNに適用できる。
- 参考スコア(独自算出の注目度): 20.726080433723922
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The reasonable definition of semantic interpretability presents the core
challenge in explainable AI. This paper proposes a method to modify a
traditional convolutional neural network (CNN) into an interpretable
compositional CNN, in order to learn filters that encode meaningful visual
patterns in intermediate convolutional layers. In a compositional CNN, each
filter is supposed to consistently represent a specific compositional object
part or image region with a clear meaning. The compositional CNN learns from
image labels for classification without any annotations of parts or regions for
supervision. Our method can be broadly applied to different types of CNNs.
Experiments have demonstrated the effectiveness of our method.
- Abstract(参考訳): 意味論的解釈可能性の定義は、説明可能なAIにおける中核的な課題を示す。
本稿では,中間畳み込み層における有意な視覚パターンを符号化するフィルタを学習するために,従来の畳み込みニューラルネットワーク(CNN)を解釈可能な合成CNNに変換する手法を提案する。
合成cnnでは、各フィルタは、明確な意味を持つ特定の合成対象部分または画像領域を一貫して表現する。
合成cnnは、分類のための画像ラベルから、監督のための部分や領域の注釈なしで学習する。
我々の手法は様々な種類のCNNに適用できる。
実験により本手法の有効性が示された。
関連論文リスト
- A Neurosymbolic Framework for Bias Correction in Convolutional Neural Networks [2.249916681499244]
我々は、訓練されたCNNにおいて、バイアス補正のためのNeSyBiCorと呼ばれるニューロシンボリックフレームワークを導入する。
我々のフレームワークは、"Places"データセットのサブセットでトレーニングされたCNNのバイアスを修正することに成功した。
論文 参考訳(メタデータ) (2024-05-24T19:09:53Z) - PICNN: A Pathway towards Interpretable Convolutional Neural Networks [12.31424771480963]
フィルタと画像のクラス間の絡み合いを軽減する新しい経路を導入する。
我々はBernoulliサンプリングを用いて、学習可能なフィルタクラス対応行列からフィルタクラスタ割り当て行列を生成する。
提案手法の有効性を,広く使用されている10のネットワークアーキテクチャ上で評価する。
論文 参考訳(メタデータ) (2023-12-19T11:36:03Z) - Deeply Explain CNN via Hierarchical Decomposition [75.01251659472584]
コンピュータビジョンにおいて、CNNの説明に寄与するいくつかの手法は、中間的特徴がネットワーク予測にどのように影響するかを研究する。
本稿では,CNNの意思決定過程をトップダウンで説明する階層的な分解フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-23T07:56:04Z) - Weakly-supervised fire segmentation by visualizing intermediate CNN
layers [82.75113406937194]
画像やビデオにおける火の局所化は、火災事故に対処するための自律システムにとって重要なステップである。
我々は,ネットワークのトレーニングに画像ラベルのみを使用する,画像中の火の弱い制御セグメント化について検討する。
CNNの中間層における特徴量の平均値は,2値セグメンテーション問題である火災セグメンテーションの場合,従来のクラスアクティベーションマッピング(CAM)法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-16T11:56:28Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Video-based Facial Expression Recognition using Graph Convolutional
Networks [57.980827038988735]
我々は、ビデオベースの表情認識のための共通のCNN-RNNモデルに、GCN(Graph Convolutional Network)層を導入する。
我々は、CK+、Oulu-CASIA、MMIの3つの広く使われているデータセットと、AFEW8.0の挑戦的なワイルドデータセットについて、本手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-26T07:31:51Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Learning CNN filters from user-drawn image markers for coconut-tree
image classification [78.42152902652215]
本稿では,CNNの特徴抽出器を訓練するために,最小限のユーザ選択画像を必要とする手法を提案する。
本手法は,クラスを識別する画像領域のユーザ描画マーカーから,各畳み込み層のフィルタを学習する。
バックプロパゲーションに基づく最適化には依存せず、ココナッツツリー空中画像のバイナリ分類にその利点を実証する。
論文 参考訳(メタデータ) (2020-08-08T15:50:23Z) - Decoding CNN based Object Classifier Using Visualization [6.666597301197889]
CNNのさまざまな畳み込み層で抽出される特徴の種類を視覚化する。
アクティベーションのヒートマップを可視化することは、CNNが画像内の異なるオブジェクトを分類し、ローカライズする方法を理解するのに役立ちます。
論文 参考訳(メタデータ) (2020-07-15T05:01:27Z) - Hybrid Tiled Convolutional Neural Networks for Text Sentiment
Classification [3.0204693431381515]
階層型畳み込みニューラルネットワーク(CNN)のアーキテクチャを調整し、感情分析のための健全な特徴の抽出を改善する。
NLP分野におけるタイル付きCNNの大きな欠点は、その柔軟性のないフィルタ構造であることを認識し、我々はハイブリッドタイル付きCNNと呼ばれる新しいアーキテクチャを提案する。
IMDBの映画レビューとSemEval 2017のデータセットの実験は、ハイブリッドタイルCNNの効率を実証している。
論文 参考訳(メタデータ) (2020-01-31T14:08:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。