論文の概要: Emergent Neural Network Mechanisms for Generalization to Objects in
Novel Orientations
- arxiv url: http://arxiv.org/abs/2109.13445v2
- Date: Thu, 13 Jul 2023 04:23:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-14 17:54:19.626821
- Title: Emergent Neural Network Mechanisms for Generalization to Objects in
Novel Orientations
- Title(参考訳): 新規方向の物体への一般化のための創発的ニューラルネットワーク機構
- Authors: Avi Cooper, Xavier Boix, Daniel Harari, Spandan Madan, Hanspeter
Pfister, Tomotake Sasaki, Pawan Sinha
- Abstract要約: 本稿では,Deep Neural Networks (DNN) がオブジェクトに新たな向きで一般化できることを示す。
この機能は、慣れ親しんだ多数のオブジェクトでDNNをトレーニングするときに強化される。
この拡散は、慣れ親しんだ物体と不慣れな物体の共通した特徴に調整されたニューロンによって達成されることを示す。
- 参考スコア(独自算出の注目度): 17.972827244226636
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The capability of Deep Neural Networks (DNNs) to recognize objects in
orientations outside the distribution of the training data is not well
understood. We present evidence that DNNs are capable of generalizing to
objects in novel orientations by disseminating orientation-invariance obtained
from familiar objects seen from many viewpoints. This capability strengthens
when training the DNN with an increasing number of familiar objects, but only
in orientations that involve 2D rotations of familiar orientations. We show
that this dissemination is achieved via neurons tuned to common features
between familiar and unfamiliar objects. These results implicate brain-like
neural mechanisms for generalization.
- Abstract(参考訳): トレーニングデータの分布外の方向のオブジェクトを認識するディープニューラルネットワーク(DNN)の能力は、よく理解されていない。
我々は,DNNが,多くの視点から見れば親しみのある対象から得られる配向不変性を分散させることにより,新しい向きのオブジェクトに一般化できることを示す。
この能力は、DNNを慣れ親しんだ物体の数が増加するにつれて強化されるが、慣れ親しんだ向きの2次元回転を含む方向のみに限られる。
この伝播は,慣れ親しんだ物体と未知の物体の共通した特徴に合わせて調節されたニューロンによって達成される。
これらの結果は、一般化のための脳のような神経機構を暗示する。
関連論文リスト
- ConceptLens: from Pixels to Understanding [1.3466710708566176]
ConceptLensは、隠れたニューロンの活性化を可視化することによって、ディープニューラルネットワーク(DNN)の複雑な動作を照明する革新的なツールである。
ディープラーニングとシンボリックな方法を統合することで、ConceptLensは、ニューロンの活性化を引き起こすものを理解するユニークな方法を提供する。
論文 参考訳(メタデータ) (2024-10-04T20:49:12Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Visualizing Deep Neural Networks with Topographic Activation Maps [1.1470070927586014]
我々は,ディープニューラルネットワーク層におけるニューロンの地形的レイアウトを求める手法を紹介し,比較する。
本研究では,地形のアクティベーションマップを用いて誤りの特定やバイアスのエンコードを行い,トレーニングプロセスの可視化を行う。
論文 参考訳(メタデータ) (2022-04-07T15:56:44Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Towards interpreting computer vision based on transformation invariant
optimization [10.820985444099536]
本研究では、ニューラルネットワークをターゲットクラスに活性化できる可視化画像を、バックプロパゲーション法により生成する。
このような手法がニューラルネットワークの洞察を得るのに役立つケースがいくつかある。
論文 参考訳(メタデータ) (2021-06-18T08:04:10Z) - What can linearized neural networks actually say about generalization? [67.83999394554621]
ある無限大のニューラルネットワークにおいて、ニューラル・タンジェント・カーネル(NTK)理論は一般化を完全に特徴づける。
線形近似は、ニューラルネットワークの特定のタスクの学習複雑性を確実にランク付けできることを示す。
我々の研究は、将来の理論的研究を刺激する新しい深層学習現象の具体例を提供する。
論文 参考訳(メタデータ) (2021-06-12T13:05:11Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Role Taxonomy of Units in Deep Neural Networks [15.067182415076148]
ディープニューラルネットワーク(DNN)におけるネットワークユニットの役割を,検索・オブ・ファンクションテストを通じて同定する。
これら4つのカテゴリーの比率は、2つの異なる視点からDNNの一般化能力と強く関連していることを示す。
論文 参考訳(メタデータ) (2020-11-02T07:37:31Z) - Learning Intermediate Features of Object Affordances with a
Convolutional Neural Network [1.52292571922932]
我々は深層畳み込みニューラルネットワーク(CNN)を訓練し、画像から手当を認識し、その基盤となる特徴や手当の寸法を知る。
我々は、この表現分析を、人間がどのように環境を知覚し、どのように相互作用するかを、よりフォーマルに説明するための第一歩であると考えている。
論文 参考訳(メタデータ) (2020-02-20T19:04:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。