論文の概要: Geodesics in the Deep Linear Network
- arxiv url: http://arxiv.org/abs/2510.07324v1
- Date: Thu, 18 Sep 2025 01:06:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-12 15:03:05.839471
- Title: Geodesics in the Deep Linear Network
- Title(参考訳): 深部線形ネットワークにおける測地学
- Authors: Alan Chen,
- Abstract要約: 線形ネットワーク幾何学における全階行列間の測地学の特別な場合において、ODEと関連する明示的解の一般系を導出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We derive a general system of ODEs and associated explicit solutions in a special case for geodesics between full rank matrices in the deep linear network geometry. In the process, we characterize all horizontal straight lines in the invariant balanced manifold that remain geodesics under Riemannian submersion.
- Abstract(参考訳): 線形ネットワーク幾何学における全階行列間の測地学の特別な場合において、ODEと関連する明示的解の一般系を導出する。
この過程で、リーマン沈み込みの下で測地的のままである不変均衡多様体のすべての水平直線を特徴づける。
関連論文リスト
- Learning Beyond Euclid: Curvature-Adaptive Generalization for Neural Networks on Manifolds [0.0]
既存の一般化理論はしばしばユークリッド幾何学から導かれる複雑性測度に依存し、非ユークリッド空間の内在的構造を説明できない。
我々は、断面曲率、体積成長、射影半径などの多様体固有の性質を明示的に組み込んだ数界を導出する。
このフレームワークは、本質的な幾何学が学習能力にどのように影響するかを原則的に理解し、構造化データ領域の深層学習に理論的洞察と実践的意味の両方を提供する。
論文 参考訳(メタデータ) (2025-07-01T23:16:49Z) - The geometry of the deep linear network [0.0]
いくつかの著者による厳密な結果は、深層学習のための熱力学フレームワークに統合される。
DLNと数学の他の分野との関係について、いくつかのオープンな質問とともに議論する。
論文 参考訳(メタデータ) (2024-11-13T20:15:50Z) - SGFormer: Spherical Geometry Transformer for 360 Depth Estimation [52.23806040289676]
パノラマ歪みは360度深度推定において大きな課題となる。
本稿では,SGFormer という球面形状変換器を提案し,上記の問題に対処する。
また、様々な解像度で空間構造を補うために、クエリベースの大域的条件位置埋め込みを提案する。
論文 参考訳(メタデータ) (2024-04-23T12:36:24Z) - Generalization of Scaled Deep ResNets in the Mean-Field Regime [55.77054255101667]
無限深度および広帯域ニューラルネットワークの限界におけるエンスケールResNetについて検討する。
この結果から,遅延学習体制を超えた深層ResNetの一般化能力に関する新たな知見が得られた。
論文 参考訳(メタデータ) (2024-03-14T21:48:00Z) - Deep Linear Networks for Matrix Completion -- An Infinite Depth Limit [10.64241024049424]
深層線形ネットワーク (DLN) は、過度にパラメータ化された学習アーキテクチャの勾配に基づく最適化における暗黙の正規化のためのモデルである。
厳密な解析と数値による行列完成のための幾何幾何学とトレーニングの関連について検討する。
暗黙の正則化は高状態空間体積に対する偏りの結果である。
論文 参考訳(メタデータ) (2022-10-22T17:03:10Z) - A singular Riemannian geometry approach to Deep Neural Networks I.
Theoretical foundations [77.86290991564829]
ディープニューラルネットワークは、音声認識、機械翻訳、画像解析など、いくつかの科学領域で複雑な問題を解決するために広く使われている。
我々は、リーマン計量を備えた列の最後の多様体で、多様体間の写像の特定の列を研究する。
このようなシーケンスのマップの理論的性質について検討し、最終的に実践的な関心を持つニューラルネットワークの実装間のマップのケースに焦点を当てる。
論文 参考訳(メタデータ) (2021-12-17T11:43:30Z) - Geodesic Models with Convexity Shape Prior [8.932981695464761]
本稿では, より複雑な問題として, 凸形状を持つ曲率ペナル化された測地線経路の発見について考察する。
配向リフトの戦略に依存する新しい測地モデルを構築した。
凸形状は、曲率の制約を符号化した局所測地線メトリクスの構築のための制約として機能する。
論文 参考訳(メタデータ) (2021-11-01T09:41:54Z) - Gauge Equivariant Mesh CNNs: Anisotropic convolutions on geometric
graphs [81.12344211998635]
メッシュ上の畳み込みを定義する一般的なアプローチは、それらをグラフとして解釈し、グラフ畳み込みネットワーク(GCN)を適用することである。
本稿では、GCNを一般化して異方性ゲージ同変カーネルを適用するGauge Equivariant Mesh CNNを提案する。
本実験は,従来のGCNおよび他の手法と比較して,提案手法の表現性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-11T17:21:15Z) - On the Convex Behavior of Deep Neural Networks in Relation to the
Layers' Width [99.24399270311069]
より広いネットワークにおいて、降下最適化による損失を最小限に抑え、トレーニングの開始時と終了時に正の曲率の表面を貫き、その間の曲率をほぼゼロにすることを観察する。
言い換えれば、トレーニングプロセスの重要な部分において、広いネットワークにおけるヘッセンはG成分によって支配されているようである。
論文 参考訳(メタデータ) (2020-01-14T16:30:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。