論文の概要: Identifying and interpreting tuning dimensions in deep networks
- arxiv url: http://arxiv.org/abs/2011.03043v2
- Date: Tue, 8 Dec 2020 00:01:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 11:11:53.776205
- Title: Identifying and interpreting tuning dimensions in deep networks
- Title(参考訳): ディープネットワークにおけるチューニング次元の同定と解釈
- Authors: Nolan S. Dey and J. Eric Taylor and Bryan P. Tripp and Alexander Wong
and Graham W. Taylor
- Abstract要約: チューニングディメンションは、ニューロン群の活性化分散の大部分を占める刺激特性である。
この研究は、ディープ・ネットワークにおける「チューニング・ディメンション」を特定し解釈するための教師なしのフレームワークに貢献している。
- 参考スコア(独自算出の注目度): 83.59965686504822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In neuroscience, a tuning dimension is a stimulus attribute that accounts for
much of the activation variance of a group of neurons. These are commonly used
to decipher the responses of such groups. While researchers have attempted to
manually identify an analogue to these tuning dimensions in deep neural
networks, we are unaware of an automatic way to discover them. This work
contributes an unsupervised framework for identifying and interpreting "tuning
dimensions" in deep networks. Our method correctly identifies the tuning
dimensions of a synthetic Gabor filter bank and tuning dimensions of the first
two layers of InceptionV1 trained on ImageNet.
- Abstract(参考訳): チューニングディメンション(英: tune dimension)は、神経科学において、ニューロン群の活性化分散の大部分を占める刺激特性である。
これらは一般にそのような群の反応を解読するために用いられる。
研究者たちは、ディープニューラルネットワークでこれらのチューニングディメンションの類似物を手作業で特定しようと試みているが、それらを発見する自動的な方法には気づいていない。
この研究は、ディープネットワークにおける"チューニング次元"を識別し、解釈するための教師なしフレームワークに寄与する。
提案手法は,合成ガボルフィルタバンクのチューニング次元と,ImageNetでトレーニングされたインセプションV1の最初の2層のチューニング次元を正確に同定する。
関連論文リスト
- Exploring Geometry of Blind Spots in Vision Models [56.47644447201878]
CNNやトランスフォーマーのような視覚モデルにおける過敏性の現象について検討する。
本稿では,入力空間に対する信頼度の高い領域を反復的に探索するレベルセットトラバースアルゴリズムを提案する。
モデルが高い信頼度を維持するこれらの連結高次元領域の範囲を推定する。
論文 参考訳(メタデータ) (2023-10-30T18:00:33Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Deep learning neural network for approaching Schr\"odinger problems with
arbitrary two-dimensional confinement [0.0]
本稿では,ニューラルネットワークを用いた自動学習法に基づく2次元シュリンガー方程式へのアプローチを提案する。
これは、解の知識から多くの任意のサンプル問題まで、任意の2次元ポテンシャルに閉じ込められた粒子の基底状態を決定することを目的としている。
論文 参考訳(メタデータ) (2023-04-03T19:48:33Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Explainable Deep Belief Network based Auto encoder using novel Extended
Garson Algorithm [6.228766191647919]
我々はDeep Belief Network based Auto-Encoder (DBNA) を説明するアルゴリズムを開発した。
DBN内の各入力機能のコントリビューションを決定するために使用される。
この方法によって同定された重要な特徴は、ウォルドチ広場(chi2)で得られたものと比較される。
論文 参考訳(メタデータ) (2022-07-18T10:44:02Z) - A singular Riemannian geometry approach to Deep Neural Networks II.
Reconstruction of 1-D equivalence classes [78.120734120667]
入力空間における出力多様体内の点の事前像を構築する。
我々は、n-次元実空間から(n-1)-次元実空間へのニューラルネットワークマップの場合の簡易性に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-17T11:47:45Z) - Similarity and Matching of Neural Network Representations [0.0]
我々は、深層ニューラルネットワークにおける表現の類似性を分析するために、Frankenstein博士と呼ばれるツールセットを使用します。
我々は、2つのトレーニングニューラルネットワークの与えられた層上でのアクティベーションを、縫合層で結合することで一致させることを目指している。
論文 参考訳(メタデータ) (2021-10-27T17:59:46Z) - Detecting Modularity in Deep Neural Networks [8.967870619902211]
ネットワークニューロンの分割によるモジュラリティ評価の問題点を考察する。
本稿では,ニューロンがネットワーク性能にいかに重要かを反映した重要度と,そのニューロンが入力の特徴といかに常に関連しているかを反映したコヒーレンスという2つのプロキシを提案する。
これらの分割は、重みのみに基づくものであっても、重要で一貫性のあるニューロンのグループを明らかにします。
論文 参考訳(メタデータ) (2021-10-13T20:33:30Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - On Tractable Representations of Binary Neural Networks [23.50970665150779]
我々は、二項ニューラルネットワークの決定関数を、順序付き二項決定図(OBDD)や意味決定図(SDD)などの抽出可能な表現にコンパイルすることを検討する。
実験では,SDDとしてニューラルネットワークのコンパクトな表現を得ることが可能であることを示す。
論文 参考訳(メタデータ) (2020-04-05T03:21:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。