論文の概要: Effects of Data Geometry in Early Deep Learning
- arxiv url: http://arxiv.org/abs/2301.00008v1
- Date: Thu, 29 Dec 2022 17:32:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 13:58:00.840796
- Title: Effects of Data Geometry in Early Deep Learning
- Title(参考訳): 早期深層学習におけるデータ幾何学の影響
- Authors: Saket Tiwari and George Konidaris
- Abstract要約: ディープニューラルネットワークは、画像からグラフまで、さまざまなタイプのデータ上の関数を、基礎構造によって近似することができる。
ニューラルネットワークが線形関数として振る舞う領域にデータ多様体を分割する。
- 参考スコア(独自算出の注目度): 16.967930721746672
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks can approximate functions on different types of data,
from images to graphs, with varied underlying structure. This underlying
structure can be viewed as the geometry of the data manifold. By extending
recent advances in the theoretical understanding of neural networks, we study
how a randomly initialized neural network with piece-wise linear activation
splits the data manifold into regions where the neural network behaves as a
linear function. We derive bounds on the density of boundary of linear regions
and the distance to these boundaries on the data manifold. This leads to
insights into the expressivity of randomly initialized deep neural networks on
non-Euclidean data sets. We empirically corroborate our theoretical results
using a toy supervised learning problem. Our experiments demonstrate that
number of linear regions varies across manifolds and the results hold with
changing neural network architectures. We further demonstrate how the
complexity of linear regions is different on the low dimensional manifold of
images as compared to the Euclidean space, using the MetFaces dataset.
- Abstract(参考訳): ディープニューラルネットワークは、画像からグラフまで、基盤構造が異なるさまざまな種類のデータで関数を近似することができる。
この基礎構造はデータ多様体の幾何学と見なすことができる。
ニューラルネットワークの理論的理解の最近の進歩を延長することにより、断片的線形活性化を伴うランダムに初期化されたニューラルネットワークが、データ多様体を線形関数として振る舞う領域に分割する方法について検討する。
線形領域の境界の密度とデータ多様体上のこれらの境界への距離の境界を導出する。
これは、非ユークリッドデータセット上のランダムに初期化されたディープニューラルネットワークの表現性に関する洞察をもたらす。
我々は,おもちゃによる教師付き学習問題を用いて理論的結果を実証的に裏付ける。
実験により, 線形領域の数は多様体によって異なっており, ニューラルネットワークのアーキテクチャの変化に伴う結果が得られた。
さらに,metfacesデータセットを用いて,画像の低次元多様体上の線形領域の複雑さがユークリッド空間と比較してどのように異なるかを示す。
関連論文リスト
- Deep Learning as Ricci Flow [38.27936710747996]
ディープニューラルネットワーク(DNN)は、複雑なデータの分布を近似する強力なツールである。
分類タスク中のDNNによる変換は、ハミルトンのリッチ流下で期待されるものと類似していることを示す。
本研究の成果は, 微分幾何学や離散幾何学から, 深層学習における説明可能性の問題まで, ツールの利用を動機づけるものである。
論文 参考訳(メタデータ) (2024-04-22T15:12:47Z) - Riemannian Residual Neural Networks [58.925132597945634]
残余ニューラルネットワーク(ResNet)の拡張方法を示す。
ResNetは、機械学習において、有益な学習特性、優れた経験的結果、そして様々なニューラルネットワークを構築する際に容易に組み込める性質のために、ユビキタスになった。
論文 参考訳(メタデータ) (2023-10-16T02:12:32Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Deep neural networks architectures from the perspective of manifold
learning [0.0]
本稿では,ゲノメトリとトポロジの観点から,ニューラルネットワークアーキテクチャの包括的比較と記述を行う。
我々は、ニューラルネットワークの内部表現と、異なる層上のデータ多様体のトポロジーと幾何学の変化のダイナミクスに焦点を当てる。
論文 参考訳(メタデータ) (2023-06-06T04:57:39Z) - Predictions Based on Pixel Data: Insights from PDEs and Finite Differences [0.0]
本稿では,各観測が行列である時間列の近似を扱う。
比較的小さなネットワークでは、直線法に基づいて、PDEの数値的な離散化のクラスを正確に表現できることが示される。
我々のネットワークアーキテクチャは、典型的に時系列の近似に採用されているものから着想を得ている。
論文 参考訳(メタデータ) (2023-05-01T08:54:45Z) - Bayesian Interpolation with Deep Linear Networks [92.1721532941863]
ニューラルネットワークの深さ、幅、データセットサイズがモデル品質にどう影響するかを特徴付けることは、ディープラーニング理論における中心的な問題である。
線形ネットワークが無限深度で証明可能な最適予測を行うことを示す。
また、データに依存しない先行法により、広い線形ネットワークにおけるベイズ模型の証拠は無限の深さで最大化されることを示す。
論文 参考訳(メタデータ) (2022-12-29T20:57:46Z) - Convolutional Neural Networks on Manifolds: From Graphs and Back [122.06927400759021]
本稿では,多様体畳み込みフィルタと点次非線形性からなる多様体ニューラルネットワーク(MNN)を提案する。
要約すると、我々は大きなグラフの極限として多様体モデルに焦点を合わせ、MNNを構築するが、それでもMNNの離散化によってグラフニューラルネットワークを復活させることができる。
論文 参考訳(メタデータ) (2022-10-01T21:17:39Z) - Side-effects of Learning from Low Dimensional Data Embedded in an
Euclidean Space [3.093890460224435]
データ多様体の必要次元におけるネットワークの深さとノイズに関連する潜在的な正則化効果について検討する。
また,騒音によるトレーニングの副作用も提示した。
論文 参考訳(メタデータ) (2022-03-01T16:55:51Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - Bounding The Number of Linear Regions in Local Area for Neural Networks
with ReLU Activations [6.4817648240626005]
本稿では,与えられたReLUニューラルネットワークの入力空間内の任意の球面における線形領域数の上界を推定する最初の手法を提案する。
実験の結果、ニューラルネットワークをトレーニングしている間、線形領域の境界はトレーニングデータポイントから離れる傾向にあることがわかった。
論文 参考訳(メタデータ) (2020-07-14T04:06:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。