論文の概要: Revealing Similar Semantics Inside CNNs: An Interpretable Concept-based
Comparison of Feature Spaces
- arxiv url: http://arxiv.org/abs/2305.07663v2
- Date: Tue, 27 Jun 2023 09:56:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 16:57:06.154194
- Title: Revealing Similar Semantics Inside CNNs: An Interpretable Concept-based
Comparison of Feature Spaces
- Title(参考訳): CNNの内部で類似したセマンティクスを明らかにする: 解釈可能な概念に基づく特徴空間の比較
- Authors: Georgii Mikriukov, Gesina Schwalbe, Christian Hellert and Korinna Bade
- Abstract要約: 安全に重要なアプリケーションは、人工知能コンポーネントの透明性を必要とする。
認識タスクに広く使用される畳み込みニューラルネットワーク(CNN)は、固有の解釈可能性に欠ける。
CNN潜在空間内の意味情報間の階層的類似性を推定する2つの手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Safety-critical applications require transparency in artificial intelligence
(AI) components, but widely used convolutional neural networks (CNNs) widely
used for perception tasks lack inherent interpretability. Hence, insights into
what CNNs have learned are primarily based on performance metrics, because
these allow, e.g., for cross-architecture CNN comparison. However, these
neglect how knowledge is stored inside. To tackle this yet unsolved problem,
our work proposes two methods for estimating the layer-wise similarity between
semantic information inside CNN latent spaces. These allow insights into both
the flow and likeness of semantic information within CNN layers, and into the
degree of their similarity between different network architectures. As a basis,
we use two renowned explainable artificial intelligence (XAI) techniques, which
are used to obtain concept activation vectors, i.e., global vector
representations in the latent space. These are compared with respect to their
activation on test inputs. When applied to three diverse object detectors and
two datasets, our methods reveal that (1) similar semantic concepts are learned
regardless of the CNN architecture, and (2) similar concepts emerge in similar
relative layer depth, independent of the total number of layers. Finally, our
approach poses a promising step towards semantic model comparability and
comprehension of how different CNNs process semantic information.
- Abstract(参考訳): 安全クリティカルなアプリケーションは、人工知能(AI)コンポーネントの透明性を必要とするが、認識タスクに広く使用される畳み込みニューラルネットワーク(CNN)は、固有の解釈可能性に欠ける。
したがって、CNNが学んだことに関する洞察は主にパフォーマンス指標に基づいている。
しかし、これらは知識を内部に格納する方法を無視している。
そこで本研究では,CNN潜在空間内の意味情報間の階層的類似性を推定する2つの手法を提案する。
これらは、CNNレイヤ内のセマンティック情報の流れと類似性の両方、および異なるネットワークアーキテクチャ間の類似性の程度に関する洞察を可能にする。
基礎として,概念活性化ベクトル,すなわち潜在空間における大域ベクトル表現を得るために用いられる2つの有名な説明可能な人工知能(xai)技術を用いる。
これらはテスト入力でのアクティベーションについて比較される。
3つの多様なオブジェクト検出器と2つのデータセットに適用すると,(1)類似のセマンティック概念はCNNアーキテクチャによらず学習され,(2)類似のセマンティック概念は,各レイヤの総数によらず,類似の相対層深さで現れることがわかった。
最後に,提案手法は,CNNが意味情報をどう処理するかを,セマンティックモデルに適合させ,理解する上で有望なステップとなる。
関連論文リスト
- Linking in Style: Understanding learned features in deep learning models [0.0]
畳み込みニューラルネットワーク(CNN)は抽象的な特徴を学び、オブジェクト分類を行う。
本稿では,CNNにおける学習特徴を可視化し,体系的に解析する自動手法を提案する。
論文 参考訳(メタデータ) (2024-09-25T12:28:48Z) - Feature CAM: Interpretable AI in Image Classification [2.4409988934338767]
セキュリティ、金融、健康、製造業など、重要かつ高精度な分野で人工知能を使用するという信頼の欠如がある。
本稿では,摂動・活性化の組み合わせに該当する特徴CAM(Feature CAM)を提案する。
その結果, ABMの3~4倍の精度が得られた。
論文 参考訳(メタデータ) (2024-03-08T20:16:00Z) - A novel feature-scrambling approach reveals the capacity of
convolutional neural networks to learn spatial relations [0.0]
畳み込みニューラルネットワーク(CNN)は、物体認識を解く最も成功したコンピュータビジョンシステムの一つである。
しかし、CNNが実際にどのように決断を下すのか、内部表現の性質や認識戦略が人間とどのように異なるのかは、いまだに理解されていない。
論文 参考訳(メタデータ) (2022-12-12T16:40:29Z) - Visual Recognition with Deep Nearest Centroids [57.35144702563746]
我々は、概念的にエレガントで驚くほど効果的な大規模視覚認識ネットワークである深部セントロイド(DNC)を考案した。
パラメトリックと比較すると、DNCは画像分類(CIFAR-10, ImageNet)に優れ、画像認識(ADE20K, Cityscapes)を大いに起動する。
論文 参考訳(メタデータ) (2022-09-15T15:47:31Z) - Comparison Analysis of Traditional Machine Learning and Deep Learning
Techniques for Data and Image Classification [62.997667081978825]
本研究の目的は、コンピュータビジョン2次元オブジェクト分類タスクに使用される最も一般的な機械学習およびディープラーニング技術を分析し比較することである。
まず、視覚語モデルと深部畳み込みニューラルネットワーク(DCNN)の理論的背景を示す。
次に、Bag of Visual Wordsモデル、VGG16 CNN Architectureを実装します。
論文 参考訳(メタデータ) (2022-04-11T11:34:43Z) - Concept Embeddings for Fuzzy Logic Verification of Deep Neural Networks
in Perception Tasks [1.2246649738388387]
我々は、訓練された畳み込みニューラルネットワーク(CNN)が特定の記号的背景知識を尊重するかどうかを検証するための、単純で効果的なアプローチを提案する。
知識はファジィ述語論理則から成り立つ。
このアプローチはファジィ性と概念出力の校正の恩恵を受けていることを示す。
論文 参考訳(メタデータ) (2022-01-03T10:35:47Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Exploring the Interchangeability of CNN Embedding Spaces [0.5735035463793008]
画像分類CNN10点と顔認識CNN4点をマップする。
同じクラスにトレーニングされ、共通のバックエンド-ログアーキテクチャを共有するCNNの場合、リニアマッピングは常にバックエンド層重みから直接計算される。
この意味は遠く離れており、共通のタスクのために設計、訓練されたネットワークによって学習された表現間の基礎的な共通性を示している。
論文 参考訳(メタデータ) (2020-10-05T20:32:40Z) - IAUnet: Global Context-Aware Feature Learning for Person
Re-Identification [106.50534744965955]
IAUブロックは、グローバル空間、時間、チャネルコンテキストを組み込むことができる。
軽量でエンドツーエンドのトレーニングが可能で、既存のCNNに簡単に接続してIAUnetを形成することができる。
実験の結果、IAUnetは画像とビデオの両方で最先端のreIDタスクに対して好意的に機能することがわかった。
論文 参考訳(メタデータ) (2020-09-02T13:07:10Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。