論文の概要: Data-driven emergence of convolutional structure in neural networks
- arxiv url: http://arxiv.org/abs/2202.00565v1
- Date: Tue, 1 Feb 2022 17:11:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 15:37:53.865391
- Title: Data-driven emergence of convolutional structure in neural networks
- Title(参考訳): ニューラルネットワークにおける畳み込み構造の創発
- Authors: Alessandro Ingrosso and Sebastian Goldt
- Abstract要約: 識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
- 参考スコア(独自算出の注目度): 83.4920717252233
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exploiting data invariances is crucial for efficient learning in both
artificial and biological neural circuits. Understanding how neural networks
can discover appropriate representations capable of harnessing the underlying
symmetries of their inputs is thus crucial in machine learning and
neuroscience. Convolutional neural networks, for example, were designed to
exploit translation symmetry and their capabilities triggered the first wave of
deep learning successes. However, learning convolutions directly from
translation-invariant data with a fully-connected network has so far proven
elusive. Here, we show how initially fully-connected neural networks solving a
discrimination task can learn a convolutional structure directly from their
inputs, resulting in localised, space-tiling receptive fields. These receptive
fields match the filters of a convolutional network trained on the same task.
By carefully designing data models for the visual scene, we show that the
emergence of this pattern is triggered by the non-Gaussian, higher-order local
structure of the inputs, which has long been recognised as the hallmark of
natural images. We provide an analytical and numerical characterisation of the
pattern-formation mechanism responsible for this phenomenon in a simple model,
which results in an unexpected link between receptive field formation and the
tensor decomposition of higher-order input correlations. These results provide
a new perspective on the development of low-level feature detectors in various
sensory modalities, and pave the way for studying the impact of higher-order
statistics on learning in neural networks.
- Abstract(参考訳): データ不変性の爆発は、人工神経回路と生物学的神経回路の両方で効率的な学習に不可欠である。
ニューラルネットワークが入力の基盤となる対称性を活用できる適切な表現を見つける方法を理解することは、機械学習と神経科学において重要である。
例えば畳み込みニューラルネットワークは、翻訳対称性を利用するように設計されており、その能力がディープラーニングの成功の最初の波を引き起こした。
しかし、完全に接続されたネットワークで翻訳不変データから直接畳み込みを学習することは、これまで実証されてきた。
ここでは、まず、識別タスクを解く完全連結ニューラルネットワークが、入力から直接畳み込み構造を学習し、局所化された空間型受容場を実現する方法を示す。
これらの受容場は同じタスクで訓練された畳み込みネットワークのフィルタと一致する。
視覚シーンのデータモデルを慎重に設計することにより、このパターンの出現は、長年自然画像の目印として認識されてきた入力の非ガウス的、高次局所構造によって引き起こされることを示す。
本稿では,この現象に責任を持つパターン形成機構の解析的,数値的特徴付けを行い,高次入力相関の受容場形成とテンソル分解との予期せぬ関係を導出する。
これらの結果は、様々な感覚様相の低レベル特徴検出器の開発に新たな展望を与え、ニューラルネットワークにおける学習に対する高次統計の影響を研究するための道を開く。
関連論文リスト
- Collective variables of neural networks: empirical time evolution and scaling laws [0.535514140374842]
実験的なニューラル・タンジェント・カーネルのスペクトル、特にエントロピーとトレースのスペクトルに対する特定の測定により、ニューラルネットワークが学習した表現についての洞察が得られることを示す。
結果は、トランスフォーマー、オートエンコーダ、グラフニューラルネットワーク、強化学習研究など、より複雑なネットワークで示される前に、まずテストケースで実証される。
論文 参考訳(メタデータ) (2024-10-09T21:37:14Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Robust Generalization of Quadratic Neural Networks via Function
Identification [19.87036824512198]
一般化は、テスト分布がトレーニング分布に近いと仮定することが多い。
2次ニューラルネットワークでは、パラメータを特定できないにもかかわらず、モデルで表される関数を識別できることが示される。
論文 参考訳(メタデータ) (2021-09-22T18:02:00Z) - Persistent Homology Captures the Generalization of Neural Networks
Without A Validation Set [0.0]
本稿では,代数的トポロジー,特に永続的ホモロジーを用いたニューラルネットワークのトレーニングについて考察する。
ニューラルネットワークの単純な複雑な表現を用いて、ニューラルネットワーク学習プロセスにおけるPHダイアグラム距離の進化について検討する。
その結果,連続するニューラルネットワーク状態間のPHダイアグラム距離は,検証精度と相関していることがわかった。
論文 参考訳(メタデータ) (2021-05-31T09:17:31Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Malicious Network Traffic Detection via Deep Learning: An Information
Theoretic View [0.0]
本研究では,ホメオモルフィズムがマルウェアのトラフィックデータセットの学習表現に与える影響について検討する。
この結果から,学習された表現の詳細と,すべてのパラメータの多様体上で定義された特定の座標系は,関数近似とは全く異なることが示唆された。
論文 参考訳(メタデータ) (2020-09-16T15:37:44Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。