論文の概要: Neural networks learn to magnify areas near decision boundaries
- arxiv url: http://arxiv.org/abs/2301.11375v1
- Date: Thu, 26 Jan 2023 19:43:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 17:25:48.848835
- Title: Neural networks learn to magnify areas near decision boundaries
- Title(参考訳): ニューラルネットワークは意思決定境界付近の領域を拡大する
- Authors: Jacob A. Zavatone-Veth and Sheng Yang and Julian A. Rubinfien and
Cengiz Pehlevan
- Abstract要約: 無限の幅では、ランダムパラメータを持つニューラルネットワークは入力空間上で高度に対称なメトリクスを誘導する。
分類タスクを実行するために訓練されたネットワークにおける特徴学習は、決定境界に沿った地域を拡大する。
- 参考スコア(独自算出の注目度): 33.91372256974968
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We study how training molds the Riemannian geometry induced by neural network
feature maps. At infinite width, neural networks with random parameters induce
highly symmetric metrics on input space. Feature learning in networks trained
to perform classification tasks magnifies local areas along decision
boundaries. These changes are consistent with previously proposed geometric
approaches for hand-tuning of kernel methods to improve generalization.
- Abstract(参考訳): ニューラルネットワーク特徴写像によって誘導されるリーマン幾何学の学習方法を検討する。
無限の幅では、ランダムパラメータを持つニューラルネットワークは入力空間上で高度に対称なメトリクスを誘導する。
分類タスクを実行するために訓練されたネットワークにおける特徴学習は、決定境界に沿った地域を拡大する。
これらの変化は、前述した一般化を改善するためにカーネルメソッドのハンドチューニングのための幾何学的アプローチと一致している。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Asymptotics of Learning with Deep Structured (Random) Features [9.366617422860543]
機能マップの大規模なクラスでは、読み出しレイヤの学習に伴うテストエラーの厳密な特徴付けを提供しています。
いくつかのケースでは、勾配降下下で訓練された深部有限幅ニューラルネットワークによって学習された特徴写像をキャプチャできる。
論文 参考訳(メタデータ) (2024-02-21T18:35:27Z) - Task structure and nonlinearity jointly determine learned
representational geometry [0.0]
本稿では,Tanhネットワークが対象出力の構造を反映した表現を学習する傾向を示し,ReLUネットワークは生入力の構造についてより多くの情報を保持することを示した。
我々の研究結果は、入力出力幾何学、非線形性、ニューラルネットワークにおける学習表現との相互作用に光を当てた。
論文 参考訳(メタデータ) (2024-01-24T16:14:38Z) - Riemannian Residual Neural Networks [58.925132597945634]
残余ニューラルネットワーク(ResNet)の拡張方法を示す。
ResNetは、機械学習において、有益な学習特性、優れた経験的結果、そして様々なニューラルネットワークを構築する際に容易に組み込める性質のために、ユビキタスになった。
論文 参考訳(メタデータ) (2023-10-16T02:12:32Z) - A singular Riemannian geometry approach to Deep Neural Networks II.
Reconstruction of 1-D equivalence classes [78.120734120667]
入力空間における出力多様体内の点の事前像を構築する。
我々は、n-次元実空間から(n-1)-次元実空間へのニューラルネットワークマップの場合の簡易性に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-17T11:47:45Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。