論文の概要: Understanding the Role of Individual Units in a Deep Neural Network
- arxiv url: http://arxiv.org/abs/2009.05041v2
- Date: Sat, 12 Sep 2020 18:58:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 02:35:06.872538
- Title: Understanding the Role of Individual Units in a Deep Neural Network
- Title(参考訳): 深層ニューラルネットワークにおける個々の単位の役割を理解する
- Authors: David Bau, Jun-Yan Zhu, Hendrik Strobelt, Agata Lapedriza, Bolei Zhou,
Antonio Torralba
- Abstract要約: 本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
- 参考スコア(独自算出の注目度): 85.23117441162772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks excel at finding hierarchical representations that solve
complex tasks over large data sets. How can we humans understand these learned
representations? In this work, we present network dissection, an analytic
framework to systematically identify the semantics of individual hidden units
within image classification and image generation networks. First, we analyze a
convolutional neural network (CNN) trained on scene classification and discover
units that match a diverse set of object concepts. We find evidence that the
network has learned many object classes that play crucial roles in classifying
scene classes. Second, we use a similar analytic method to analyze a generative
adversarial network (GAN) model trained to generate scenes. By analyzing
changes made when small sets of units are activated or deactivated, we find
that objects can be added and removed from the output scenes while adapting to
the context. Finally, we apply our analytic framework to understanding
adversarial attacks and to semantic image editing.
- Abstract(参考訳): ディープニューラルネットワークは、大規模なデータセット上の複雑なタスクを解決する階層的表現の発見に長けている。
これらの学習された表現をどのように理解できるか?
本稿では,画像分類と画像生成ネットワークにおける個々の隠れ単位の意味を体系的に識別する分析フレームワークであるネットワーク分割を提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
ネットワークがシーンクラスを分類する上で重要な役割を果たす多くのオブジェクトクラスを学習した証拠を見出した。
第2に、シーンを生成するために訓練されたGANモデルを分析するために、同様の分析手法を用いる。
小セットのユニットが活性化または非活性化された場合の変化を分析することで、コンテキストに適応しながらオブジェクトを出力シーンから追加・削除できることがわかった。
最後に、我々の分析フレームワークを敵攻撃の理解と意味的画像編集に応用する。
関連論文リスト
- Linking in Style: Understanding learned features in deep learning models [0.0]
畳み込みニューラルネットワーク(CNN)は抽象的な特徴を学び、オブジェクト分類を行う。
本稿では,CNNにおける学習特徴を可視化し,体系的に解析する自動手法を提案する。
論文 参考訳(メタデータ) (2024-09-25T12:28:48Z) - Learning Object-Centric Representation via Reverse Hierarchy Guidance [73.05170419085796]
OCL(Object-Centric Learning)は、ニューラルネットワークが視覚的なシーンで個々のオブジェクトを識別できるようにする。
RHGNetは、トレーニングと推論プロセスにおいて、さまざまな方法で機能するトップダウンパスを導入している。
我々のモデルは、よく使われる複数のデータセット上でSOTA性能を達成する。
論文 参考訳(メタデータ) (2024-05-17T07:48:27Z) - Visualizing Neural Network Imagination [2.1749194587826026]
ある状況では、ニューラルネットワークは、隠れたアクティベーションの環境状態を表現します。
私たちのゴールは、ネットワークが表現している環境を可視化することです。
定量的解釈可能性尺度を定義し、隠れた状態が高度に解釈可能であることを示す。
論文 参考訳(メタデータ) (2024-05-10T11:43:35Z) - Image segmentation with traveling waves in an exactly solvable recurrent
neural network [71.74150501418039]
繰り返しニューラルネットワークは、シーンの構造特性に応じて、画像をグループに効果的に分割できることを示す。
本稿では,このネットワークにおけるオブジェクトセグメンテーションのメカニズムを正確に記述する。
次に、グレースケール画像中の単純な幾何学的対象から自然画像まで、入力をまたいで一般化するオブジェクトセグメンテーションの簡単なアルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-11-28T16:46:44Z) - Semiotics Networks Representing Perceptual Inference [0.0]
本稿では,物体の知覚を追跡・シミュレートする計算モデルを提案する。
我々のモデルは人間に限らず、「内部」表現から「外部」表現への処理を含むループを含むシステムに適用することができる。
論文 参考訳(メタデータ) (2023-10-08T16:05:17Z) - Learning and generalization of compositional representations of visual
scenes [2.960473840509733]
オブジェクト属性の分散表現とベクトルシンボルアーキテクチャにおけるベクトル演算を用いてシーンの完全な構成記述を作成する。
シーン構成を制御するために、複数の、翻訳された、色付きMNIST桁からなる人工画像を使用する。
ディープネットワークの出力はVSA共振器ネットワークによって解釈され、オブジェクトの同一性やその他のオブジェクトの特性を抽出する。
論文 参考訳(メタデータ) (2023-03-23T22:03:42Z) - What do End-to-End Speech Models Learn about Speaker, Language and
Channel Information? A Layer-wise and Neuron-level Analysis [16.850888973106706]
本稿では,事前学習した音声モデルの探索フレームワークを用いたポストホック機能解析を行う。
話者認識や方言識別といった様々なタスクのために訓練された音声モデルの発話レベル表現を解析する。
i) チャネル情報と性別情報はネットワーク全体に分散され,i) 情報はタスクに関してニューロンで冗長に利用可能であり,iv) 弁証情報などの複雑な特性はタスク指向の事前学習ネットワークでのみ符号化される。
論文 参考訳(メタデータ) (2021-07-01T13:32:55Z) - Learning Physical Graph Representations from Visual Scenes [56.7938395379406]
物理シーングラフ(PSG)はシーンを階層的なグラフとして表現し、ノードは異なるスケールのオブジェクト部品に直感的に対応し、部品間の物理的接続にエッジを持つ。
PSGNetは、低レベルの画像情報と高レベルの画像情報を組み合わせたリカレントフィードバック接続、空間的に均一な特徴マップをオブジェクト中心のグラフ構造に変換するグラフプーリングとベクトル化操作を含む、標準的なCNNを拡張している。
我々は,PSGNetがシーンセグメンテーションタスクにおいて,他の自己教師付きシーン表現アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-22T16:10:26Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - Self-Supervised Viewpoint Learning From Image Collections [116.56304441362994]
本稿では,解析・合成パラダイムを取り入れた新たな学習フレームワークを提案する。
提案手法は,人間の顔,車,バス,電車など,複数の対象カテゴリに対して,完全に教師されたアプローチに対して競争力を発揮することを示す。
論文 参考訳(メタデータ) (2020-04-03T22:01:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。