論文の概要: Analyzing Representations inside Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2012.12516v1
- Date: Wed, 23 Dec 2020 07:10:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 03:45:11.661195
- Title: Analyzing Representations inside Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワーク内の表現の解析
- Authors: Uday Singh Saini, Evangelos E. Papalexakis
- Abstract要約: 本稿では,ネットワークが学習する概念を,一連の入力例をクラスタリングする方法に基づいて分類するフレームワークを提案する。
このフレームワークは教師なしで、入力機能のためのラベルなしで機能する。
提案手法を広範に評価し,人間の理解しやすさとコヒーレントな概念を創出することを示す。
- 参考スコア(独自算出の注目度): 8.803054559188048
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How can we discover and succinctly summarize the concepts that a neural
network has learned? Such a task is of great importance in applications of
networks in areas of inference that involve classification, like medical
diagnosis based on fMRI/x-ray etc. In this work, we propose a framework to
categorize the concepts a network learns based on the way it clusters a set of
input examples, clusters neurons based on the examples they activate for, and
input features all in the same latent space. This framework is unsupervised and
can work without any labels for input features, it only needs access to
internal activations of the network for each input example, thereby making it
widely applicable. We extensively evaluate the proposed method and demonstrate
that it produces human-understandable and coherent concepts that a ResNet-18
has learned on the CIFAR-100 dataset.
- Abstract(参考訳): ニューラルネットワークが学んだ概念をどのように発見し、簡潔に要約するか?
このようなタスクは、fMRI/x線に基づく診断など、分類を含む推論領域におけるネットワークの適用において非常に重要である。
本研究では,ネットワークが学習する概念を,一連の入力例のクラスタ化方法,それらが活性化する例に基づくニューロンのクラスタ化,およびすべて同じ潜在空間内での入力機能に基づいて分類するフレームワークを提案する。
このフレームワークは教師なしで、入力機能のためのラベルなしで動作可能であり、入力例ごとにネットワークの内部アクティベーションにアクセスする必要があるため、広く適用することができる。
提案手法を広範囲に評価し,cifar-100データセット上でresnet-18が学習した,人間理解可能なコヒーレントな概念を提示する。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Conditional computation in neural networks: principles and research trends [48.14569369912931]
本稿では,ニューラルネットワークの設計にテクトコンディショナリ計算を適用するという,新たな領域の原理とアイデアを要約する。
特に、入力に条件付きで計算グラフの一部を動的に活性化または非活性化するニューラルネットワークに焦点を当てる。
論文 参考訳(メタデータ) (2024-03-12T11:56:38Z) - DISCOVER: Making Vision Networks Interpretable via Competition and
Dissection [11.028520416752325]
この研究は、ポストホック解釈可能性、特にネットワーク分割に寄与する。
私たちのゴールは、視覚タスクで訓練されたネットワークにおいて、各ニューロンの個々の機能を容易に発見できるフレームワークを提供することです。
論文 参考訳(メタデータ) (2023-10-07T21:57:23Z) - Topological Understanding of Neural Networks, a survey [0.0]
一般にブラックボックスとして扱われるニューラルネットワークの内部構造を考察する。
我々は、異なるアクティベーション関数、それらに関連するネットワークアーキテクチャの種類、およびいくつかの経験的データの重要性についてレビューする。
論文 参考訳(メタデータ) (2023-01-23T22:11:37Z) - Neural Activation Patterns (NAPs): Visual Explainability of Learned
Concepts [8.562628320010035]
本稿では,活性化分布全体を考慮に入れた手法を提案する。
ニューラルネットワーク層の高次元活性化空間内で同様の活性化プロファイルを抽出することにより、同様に扱われる入力のグループを見つける。
これらの入力グループは、ニューラルネットワークアクティベーションパターン(NAP)を表現し、学習された層の概念を視覚化し解釈するために使用することができる。
論文 参考訳(メタデータ) (2022-06-20T09:05:57Z) - Quasi-orthogonality and intrinsic dimensions as measures of learning and
generalisation [55.80128181112308]
ニューラルネットワークの特徴空間の次元性と準直交性は、ネットワークの性能差別と共同して機能する可能性があることを示す。
本研究は, ネットワークの最終的な性能と, ランダムに初期化された特徴空間の特性との関係を示唆する。
論文 参考訳(メタデータ) (2022-03-30T21:47:32Z) - Pointer Value Retrieval: A new benchmark for understanding the limits of
neural network generalization [40.21297628440919]
我々は、ニューラルネットワークの一般化の限界を探求する新しいベンチマーク、Pointer Value Retrieval(PVR)タスクを導入する。
PVRタスクは視覚的および記号的な入力で構成され、それぞれが様々な難易度を持つ。
このタスク構造が一般化を理解するための豊富なテストベッドを提供することを示す。
論文 参考訳(メタデータ) (2021-07-27T03:50:31Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - Quantitative Effectiveness Assessment and Role Categorization of
Individual Units in Convolutional Neural Networks [23.965084518584298]
画像分類タスクにおけるcnnの単一単位の現状と有用性を定量的に解明する手法を提案する。
本手法の技術的根拠は, 特定のエントロピーの計算に基づく分類における各クラスにおける単位の重要性をランク付けすることである。
すべてのネットワークユニットは、トレーニングとテストデータのパフォーマンスに応じて4つのカテゴリに分類される。
論文 参考訳(メタデータ) (2021-03-17T15:18:18Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Graph Prototypical Networks for Few-shot Learning on Attributed Networks [72.31180045017835]
グラフメタ学習フレームワーク - Graph Prototypeal Networks (GPN) を提案する。
GPNは、属性付きネットワーク上でテキストミータ学習を行い、ターゲット分類タスクを扱うための高度に一般化可能なモデルを導出する。
論文 参考訳(メタデータ) (2020-06-23T04:13:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。