論文の概要: A Theoretical Analysis on Feature Learning in Neural Networks: Emergence
from Inputs and Advantage over Fixed Features
- arxiv url: http://arxiv.org/abs/2206.01717v1
- Date: Fri, 3 Jun 2022 17:49:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 14:36:50.928395
- Title: A Theoretical Analysis on Feature Learning in Neural Networks: Emergence
from Inputs and Advantage over Fixed Features
- Title(参考訳): ニューラルネットワークにおける特徴学習の理論的分析:入力からの創発と固定特徴に対するアドバンテージ
- Authors: Zhenmei Shi, Junyi Wei, Yingyu Liang
- Abstract要約: ニューラルネットワークの重要な特徴は、予測に有効な特徴を持つ入力データの表現を学ぶ能力である。
実践的なデータによって動機づけられた学習問題を考察し、そこでは、ラベルが一連のクラス関連パターンによって決定され、それらから入力が生成される。
勾配降下によって訓練されたニューラルネットワークがこれらの問題に成功できることを実証する。
- 参考スコア(独自算出の注目度): 18.321479102352875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An important characteristic of neural networks is their ability to learn
representations of the input data with effective features for prediction, which
is believed to be a key factor to their superior empirical performance. To
better understand the source and benefit of feature learning in neural
networks, we consider learning problems motivated by practical data, where the
labels are determined by a set of class relevant patterns and the inputs are
generated from these along with some background patterns. We prove that neural
networks trained by gradient descent can succeed on these problems. The success
relies on the emergence and improvement of effective features, which are
learned among exponentially many candidates efficiently by exploiting the data
(in particular, the structure of the input distribution). In contrast, no
linear models on data-independent features of polynomial sizes can learn to as
good errors. Furthermore, if the specific input structure is removed, then no
polynomial algorithm in the Statistical Query model can learn even weakly.
These results provide theoretical evidence showing that feature learning in
neural networks depends strongly on the input structure and leads to the
superior performance. Our preliminary experimental results on synthetic and
real data also provide positive support.
- Abstract(参考訳): ニューラルネットワークの重要な特徴は、予測のための効果的な特徴を持つ入力データの表現を学習する能力である。
ニューラルネットワークにおける特徴学習の源泉と利点をよりよく理解するために、ラベルが一連のクラス関連パターンによって決定され、背景パターンとともに入力が生成される、実践的なデータによって動機付けられた学習問題を考察する。
勾配降下によって訓練されたニューラルネットワークがこれらの問題に成功できることを実証する。
この成功は、データ(特に入力分布の構造)を利用して指数関数的に多くの候補の中から効率よく学習される効果的な特徴の出現と改善に依存している。
対照的に、多項式サイズのデータ非依存的な特徴に関する線形モデルは良い誤りを学習できない。
さらに、特定の入力構造が取り除かれた場合、統計的クエリーモデルの多項式アルゴリズムはさらに弱く学習することができない。
これらの結果は、ニューラルネットワークの機能学習が入力構造に強く依存し、優れた性能をもたらすことを示す理論的証拠を与える。
合成および実データに関する予備的な実験結果も肯定的な支持を与える。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Toward Understanding the Feature Learning Process of Self-supervised
Contrastive Learning [43.504548777955854]
本研究では,その特徴学習過程を解析することにより,ニューラルネットワークの特徴表現のコントラスト学習について検討する。
textbfReLUネットワークを用いたコントラスト学習は、適切な拡張が採用されれば、所望のスパース特徴を確実に学習できることを実証する。
論文 参考訳(メタデータ) (2021-05-31T16:42:09Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Efficacy of Bayesian Neural Networks in Active Learning [11.609770399591516]
ベイズニューラルネットワークは、アンサンブルに基づく不確実性を捕捉する技術よりも効率的であることを示す。
また,近年,モンテカルロのドロップアウトよりも効果的であることが判明したアンサンブル技法の重要な欠点も明らかにした。
論文 参考訳(メタデータ) (2021-04-02T06:02:11Z) - How Neural Networks Extrapolate: From Feedforward to Graph Neural
Networks [80.55378250013496]
勾配勾配降下法によりトレーニングされたニューラルネットワークが、トレーニング分布の支持の外で学んだことを外挿する方法について検討する。
グラフニューラルネットワーク(GNN)は、より複雑なタスクでいくつかの成功を収めている。
論文 参考訳(メタデータ) (2020-09-24T17:48:59Z) - Malicious Network Traffic Detection via Deep Learning: An Information
Theoretic View [0.0]
本研究では,ホメオモルフィズムがマルウェアのトラフィックデータセットの学習表現に与える影響について検討する。
この結果から,学習された表現の詳細と,すべてのパラメータの多様体上で定義された特定の座標系は,関数近似とは全く異なることが示唆された。
論文 参考訳(メタデータ) (2020-09-16T15:37:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。