論文の概要: Quantified Semantic Comparison of Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2305.07663v1
- Date: Sun, 30 Apr 2023 13:53:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-21 11:14:29.526790
- Title: Quantified Semantic Comparison of Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークの定量化意味比較
- Authors: Georgii Mikriukov, Gesina Schwalbe, Christian Hellert and Korinna Bade
- Abstract要約: コンピュータビジョンのための畳み込みニューラルネットワーク(CNN)の最先端は、不透明でありながら、性能が優れている。
本研究では,CNN潜在空間における意味情報間の類似性を定量化する2つの手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The state-of-the-art in convolutional neural networks (CNNs) for computer
vision excels in performance, while remaining opaque. But due to safety
regulations for safety-critical applications, like perception for automated
driving, the choice of model should also take into account how candidate models
represent semantic information for model transparency reasons. To tackle this
yet unsolved problem, our work proposes two methods for quantifying the
similarity between semantic information in CNN latent spaces. These allow
insights into both the flow and similarity of semantic information within CNN
layers, and into the degree of their similitude between different networks. As
a basis, we use renown techniques from the field of explainable artificial
intelligence (XAI), which are used to obtain global vector representations of
semantic concepts in each latent space. These are compared with respect to
their activation on test inputs. When applied to three diverse object detectors
and two datasets, our methods reveal the findings that (1) similar semantic
concepts are learned \emph{regardless of the CNN architecture}, and (2) similar
concepts emerge in similar \emph{relative} layer depth, independent of the
total number of layers. Finally, our approach poses a promising step towards
informed model selection and comprehension of how CNNs process semantic
information.
- Abstract(参考訳): コンピュータビジョンのための畳み込みニューラルネットワーク(cnns)は、不透明なまま性能が優れている。
しかし、自動運転の認識のような安全クリティカルなアプリケーションに対する安全規制のため、モデルの選択は、モデルの透明性のために、モデルがセマンティック情報をどのように表現するかを考慮する必要がある。
そこで本研究では,CNN潜在空間における意味情報間の類似性を定量化する2つの手法を提案する。
これにより、cnn層内の意味情報のフローと類似性の両方と、異なるネットワーク間の同化度に関する洞察が可能になる。
基礎として,各潜在空間における意味概念の大域的ベクトル表現を得るために,説明可能な人工知能(xai)の分野からの認識技術を用いる。
これらはテスト入力でのアクティベーションについて比較される。
3つの多様なオブジェクト検出器と2つのデータセットに適用すると、(1)類似した意味概念はcnnアーキテクチャに無関係に学習され、(2)類似した概念はレイヤーの総数によらず、同様の「emph{relative}」層に出現することが明らかとなる。
最後に,提案手法は,CNNがセマンティック情報をどう処理するかを,モデル選択や理解する上で有望なステップとなる。
関連論文リスト
- Linking in Style: Understanding learned features in deep learning models [0.0]
畳み込みニューラルネットワーク(CNN)は抽象的な特徴を学び、オブジェクト分類を行う。
本稿では,CNNにおける学習特徴を可視化し,体系的に解析する自動手法を提案する。
論文 参考訳(メタデータ) (2024-09-25T12:28:48Z) - Feature CAM: Interpretable AI in Image Classification [2.4409988934338767]
セキュリティ、金融、健康、製造業など、重要かつ高精度な分野で人工知能を使用するという信頼の欠如がある。
本稿では,摂動・活性化の組み合わせに該当する特徴CAM(Feature CAM)を提案する。
その結果, ABMの3~4倍の精度が得られた。
論文 参考訳(メタデータ) (2024-03-08T20:16:00Z) - A novel feature-scrambling approach reveals the capacity of
convolutional neural networks to learn spatial relations [0.0]
畳み込みニューラルネットワーク(CNN)は、物体認識を解く最も成功したコンピュータビジョンシステムの一つである。
しかし、CNNが実際にどのように決断を下すのか、内部表現の性質や認識戦略が人間とどのように異なるのかは、いまだに理解されていない。
論文 参考訳(メタデータ) (2022-12-12T16:40:29Z) - Visual Recognition with Deep Nearest Centroids [57.35144702563746]
我々は、概念的にエレガントで驚くほど効果的な大規模視覚認識ネットワークである深部セントロイド(DNC)を考案した。
パラメトリックと比較すると、DNCは画像分類(CIFAR-10, ImageNet)に優れ、画像認識(ADE20K, Cityscapes)を大いに起動する。
論文 参考訳(メタデータ) (2022-09-15T15:47:31Z) - Comparison Analysis of Traditional Machine Learning and Deep Learning
Techniques for Data and Image Classification [62.997667081978825]
本研究の目的は、コンピュータビジョン2次元オブジェクト分類タスクに使用される最も一般的な機械学習およびディープラーニング技術を分析し比較することである。
まず、視覚語モデルと深部畳み込みニューラルネットワーク(DCNN)の理論的背景を示す。
次に、Bag of Visual Wordsモデル、VGG16 CNN Architectureを実装します。
論文 参考訳(メタデータ) (2022-04-11T11:34:43Z) - Concept Embeddings for Fuzzy Logic Verification of Deep Neural Networks
in Perception Tasks [1.2246649738388387]
我々は、訓練された畳み込みニューラルネットワーク(CNN)が特定の記号的背景知識を尊重するかどうかを検証するための、単純で効果的なアプローチを提案する。
知識はファジィ述語論理則から成り立つ。
このアプローチはファジィ性と概念出力の校正の恩恵を受けていることを示す。
論文 参考訳(メタデータ) (2022-01-03T10:35:47Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Exploring the Interchangeability of CNN Embedding Spaces [0.5735035463793008]
画像分類CNN10点と顔認識CNN4点をマップする。
同じクラスにトレーニングされ、共通のバックエンド-ログアーキテクチャを共有するCNNの場合、リニアマッピングは常にバックエンド層重みから直接計算される。
この意味は遠く離れており、共通のタスクのために設計、訓練されたネットワークによって学習された表現間の基礎的な共通性を示している。
論文 参考訳(メタデータ) (2020-10-05T20:32:40Z) - IAUnet: Global Context-Aware Feature Learning for Person
Re-Identification [106.50534744965955]
IAUブロックは、グローバル空間、時間、チャネルコンテキストを組み込むことができる。
軽量でエンドツーエンドのトレーニングが可能で、既存のCNNに簡単に接続してIAUnetを形成することができる。
実験の結果、IAUnetは画像とビデオの両方で最先端のreIDタスクに対して好意的に機能することがわかった。
論文 参考訳(メタデータ) (2020-09-02T13:07:10Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。