論文の概要: Emergent Neural Network Mechanisms for Generalization to Objects in
Novel Orientations
- arxiv url: http://arxiv.org/abs/2109.13445v2
- Date: Thu, 13 Jul 2023 04:23:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-14 17:54:19.626821
- Title: Emergent Neural Network Mechanisms for Generalization to Objects in
Novel Orientations
- Title(参考訳): 新規方向の物体への一般化のための創発的ニューラルネットワーク機構
- Authors: Avi Cooper, Xavier Boix, Daniel Harari, Spandan Madan, Hanspeter
Pfister, Tomotake Sasaki, Pawan Sinha
- Abstract要約: 本稿では,Deep Neural Networks (DNN) がオブジェクトに新たな向きで一般化できることを示す。
この機能は、慣れ親しんだ多数のオブジェクトでDNNをトレーニングするときに強化される。
この拡散は、慣れ親しんだ物体と不慣れな物体の共通した特徴に調整されたニューロンによって達成されることを示す。
- 参考スコア(独自算出の注目度): 17.972827244226636
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The capability of Deep Neural Networks (DNNs) to recognize objects in
orientations outside the distribution of the training data is not well
understood. We present evidence that DNNs are capable of generalizing to
objects in novel orientations by disseminating orientation-invariance obtained
from familiar objects seen from many viewpoints. This capability strengthens
when training the DNN with an increasing number of familiar objects, but only
in orientations that involve 2D rotations of familiar orientations. We show
that this dissemination is achieved via neurons tuned to common features
between familiar and unfamiliar objects. These results implicate brain-like
neural mechanisms for generalization.
- Abstract(参考訳): トレーニングデータの分布外の方向のオブジェクトを認識するディープニューラルネットワーク(DNN)の能力は、よく理解されていない。
我々は,DNNが,多くの視点から見れば親しみのある対象から得られる配向不変性を分散させることにより,新しい向きのオブジェクトに一般化できることを示す。
この能力は、DNNを慣れ親しんだ物体の数が増加するにつれて強化されるが、慣れ親しんだ向きの2次元回転を含む方向のみに限られる。
この伝播は,慣れ親しんだ物体と未知の物体の共通した特徴に合わせて調節されたニューロンによって達成される。
これらの結果は、一般化のための脳のような神経機構を暗示する。
関連論文リスト
- Revealing Bias Formation in Deep Neural Networks Through the Geometric Mechanisms of Human Visual Decoupling [9.609083308026786]
ディープニューラルネットワーク(DNN)はしばしば、オブジェクト認識中に特定のカテゴリに対するバイアスを示す。
本稿では,クラス固有の知覚多様体の幾何学的複雑さをモデルバイアスにリンクする幾何学的解析フレームワークを提案する。
本稿では,知覚多様体の幾何学的性質を計算するために設計された知覚多様体幾何学ライブラリを提案する。
論文 参考訳(メタデータ) (2025-02-17T13:54:02Z) - Discovering Chunks in Neural Embeddings for Interpretability [53.80157905839065]
本稿では, チャンキングの原理を応用して, 人工神経集団活動の解釈を提案する。
まず、この概念を正則性を持つ人工シーケンスを訓練したリカレントニューラルネットワーク(RNN)で実証する。
我々は、これらの状態に対する摂動が関連する概念を活性化または阻害すると共に、入力における概念に対応する同様の繰り返し埋め込み状態を特定する。
論文 参考訳(メタデータ) (2025-02-03T20:30:46Z) - An Analysis Framework for Understanding Deep Neural Networks Based on Network Dynamics [11.44947569206928]
ディープニューラルネットワーク(DNN)は、ディープ層にまたがる異なるモードのニューロンの割合を合理的に割り当てることで、情報抽出を最大化する。
このフレームワークは、"フラット・ミニマ効果(flat minima effect)"、"グロッキング(grokking)"、二重降下現象(double descend phenomena)など、基本的なDNNの振る舞いについて統一的な説明を提供する。
論文 参考訳(メタデータ) (2025-01-05T04:23:21Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Towards interpreting computer vision based on transformation invariant
optimization [10.820985444099536]
本研究では、ニューラルネットワークをターゲットクラスに活性化できる可視化画像を、バックプロパゲーション法により生成する。
このような手法がニューラルネットワークの洞察を得るのに役立つケースがいくつかある。
論文 参考訳(メタデータ) (2021-06-18T08:04:10Z) - What can linearized neural networks actually say about generalization? [67.83999394554621]
ある無限大のニューラルネットワークにおいて、ニューラル・タンジェント・カーネル(NTK)理論は一般化を完全に特徴づける。
線形近似は、ニューラルネットワークの特定のタスクの学習複雑性を確実にランク付けできることを示す。
我々の研究は、将来の理論的研究を刺激する新しい深層学習現象の具体例を提供する。
論文 参考訳(メタデータ) (2021-06-12T13:05:11Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Role Taxonomy of Units in Deep Neural Networks [15.067182415076148]
ディープニューラルネットワーク(DNN)におけるネットワークユニットの役割を,検索・オブ・ファンクションテストを通じて同定する。
これら4つのカテゴリーの比率は、2つの異なる視点からDNNの一般化能力と強く関連していることを示す。
論文 参考訳(メタデータ) (2020-11-02T07:37:31Z) - Learning Intermediate Features of Object Affordances with a
Convolutional Neural Network [1.52292571922932]
我々は深層畳み込みニューラルネットワーク(CNN)を訓練し、画像から手当を認識し、その基盤となる特徴や手当の寸法を知る。
我々は、この表現分析を、人間がどのように環境を知覚し、どのように相互作用するかを、よりフォーマルに説明するための第一歩であると考えている。
論文 参考訳(メタデータ) (2020-02-20T19:04:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。