論文の概要: Understanding the Role of Individual Units in a Deep Neural Network
- arxiv url: http://arxiv.org/abs/2009.05041v2
- Date: Sat, 12 Sep 2020 18:58:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 02:35:06.872538
- Title: Understanding the Role of Individual Units in a Deep Neural Network
- Title(参考訳): 深層ニューラルネットワークにおける個々の単位の役割を理解する
- Authors: David Bau, Jun-Yan Zhu, Hendrik Strobelt, Agata Lapedriza, Bolei Zhou,
Antonio Torralba
- Abstract要約: 本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
- 参考スコア(独自算出の注目度): 85.23117441162772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks excel at finding hierarchical representations that solve
complex tasks over large data sets. How can we humans understand these learned
representations? In this work, we present network dissection, an analytic
framework to systematically identify the semantics of individual hidden units
within image classification and image generation networks. First, we analyze a
convolutional neural network (CNN) trained on scene classification and discover
units that match a diverse set of object concepts. We find evidence that the
network has learned many object classes that play crucial roles in classifying
scene classes. Second, we use a similar analytic method to analyze a generative
adversarial network (GAN) model trained to generate scenes. By analyzing
changes made when small sets of units are activated or deactivated, we find
that objects can be added and removed from the output scenes while adapting to
the context. Finally, we apply our analytic framework to understanding
adversarial attacks and to semantic image editing.
- Abstract(参考訳): ディープニューラルネットワークは、大規模なデータセット上の複雑なタスクを解決する階層的表現の発見に長けている。
これらの学習された表現をどのように理解できるか?
本稿では,画像分類と画像生成ネットワークにおける個々の隠れ単位の意味を体系的に識別する分析フレームワークであるネットワーク分割を提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
ネットワークがシーンクラスを分類する上で重要な役割を果たす多くのオブジェクトクラスを学習した証拠を見出した。
第2に、シーンを生成するために訓練されたGANモデルを分析するために、同様の分析手法を用いる。
小セットのユニットが活性化または非活性化された場合の変化を分析することで、コンテキストに適応しながらオブジェクトを出力シーンから追加・削除できることがわかった。
最後に、我々の分析フレームワークを敵攻撃の理解と意味的画像編集に応用する。
関連論文リスト
- Understanding the Role of Pathways in a Deep Neural Network [4.456675543894722]
分類タスクで訓練された畳み込みニューラルネットワーク(CNN)を分析し,個々の画素の拡散経路を抽出するアルゴリズムを提案する。
画像からの個々のピクセルの最も大きな経路は、分類に重要な各層の特徴マップを横断する傾向にある。
論文 参考訳(メタデータ) (2024-02-28T07:53:19Z) - Image segmentation with traveling waves in an exactly solvable recurrent
neural network [71.74150501418039]
繰り返しニューラルネットワークは、シーンの構造特性に応じて、画像をグループに効果的に分割できることを示す。
本稿では,このネットワークにおけるオブジェクトセグメンテーションのメカニズムを正確に記述する。
次に、グレースケール画像中の単純な幾何学的対象から自然画像まで、入力をまたいで一般化するオブジェクトセグメンテーションの簡単なアルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-11-28T16:46:44Z) - Interpretable Semiotics Networks Representing Awareness [0.0]
本稿では,オブジェクトの知覚と表現を,コミュニケーションにおいて伝達されるときに追跡し,シミュレートする計算モデルについて述べる。
人による物体知覚モデルにより,ネットワークによる物体知覚を定義することができる。
我々のモデルは人間に限らず、「内部」表現から「外部」表現への処理を含むループを含むシステムに適用することができる。
論文 参考訳(メタデータ) (2023-10-08T16:05:17Z) - How Deep Neural Networks Learn Compositional Data: The Random Hierarchy
Model [50.45582596865073]
言語と画像の階層構造にインスパイアされた合成タスクのファミリーであるランダム階層モデルを紹介する。
深層ネットワークは、等価なグループを交換するために不変な内部表現を開発することでタスクを学習する。
この結果から, ネットワークは次元の呪いを克服し, 不変表現を構築できることが示唆された。
論文 参考訳(メタデータ) (2023-07-05T09:11:09Z) - Multi-Class Explainable Unlearning for Image Classification via Weight
Filtering [48.72194573786612]
画像分類ネットワークのすべてのクラスを1ラウンドの未学習ラウンドで解放できるフレームワークを考案する。
私たちの研究は、アンラーニングのための説明可能なソリューションの開発に関する興味深い洞察を提供し、他のビジョンタスクにも容易に拡張できます。
論文 参考訳(メタデータ) (2023-04-04T18:01:59Z) - Learning and generalization of compositional representations of visual
scenes [2.960473840509733]
オブジェクト属性の分散表現とベクトルシンボルアーキテクチャにおけるベクトル演算を用いてシーンの完全な構成記述を作成する。
シーン構成を制御するために、複数の、翻訳された、色付きMNIST桁からなる人工画像を使用する。
ディープネットワークの出力はVSA共振器ネットワークによって解釈され、オブジェクトの同一性やその他のオブジェクトの特性を抽出する。
論文 参考訳(メタデータ) (2023-03-23T22:03:42Z) - Divergent representations of ethological visual inputs emerge from
supervised, unsupervised, and reinforcement learning [20.98896935012773]
8つの異なる畳み込みニューラルネットワークによって学習された表現を比較する。
強化学習で訓練されたネットワークは,他のネットワークと大きく異なることがわかった。
論文 参考訳(メタデータ) (2021-12-03T17:18:09Z) - What do End-to-End Speech Models Learn about Speaker, Language and
Channel Information? A Layer-wise and Neuron-level Analysis [16.850888973106706]
本稿では,事前学習した音声モデルの探索フレームワークを用いたポストホック機能解析を行う。
話者認識や方言識別といった様々なタスクのために訓練された音声モデルの発話レベル表現を解析する。
i) チャネル情報と性別情報はネットワーク全体に分散され,i) 情報はタスクに関してニューロンで冗長に利用可能であり,iv) 弁証情報などの複雑な特性はタスク指向の事前学習ネットワークでのみ符号化される。
論文 参考訳(メタデータ) (2021-07-01T13:32:55Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - Self-Supervised Viewpoint Learning From Image Collections [116.56304441362994]
本稿では,解析・合成パラダイムを取り入れた新たな学習フレームワークを提案する。
提案手法は,人間の顔,車,バス,電車など,複数の対象カテゴリに対して,完全に教師されたアプローチに対して競争力を発揮することを示す。
論文 参考訳(メタデータ) (2020-04-03T22:01:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。