論文の概要: Emergent Riemannian geometry over learning discrete computations on continuous manifolds
- arxiv url: http://arxiv.org/abs/2512.00196v1
- Date: Fri, 28 Nov 2025 20:29:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.107231
- Title: Emergent Riemannian geometry over learning discrete computations on continuous manifolds
- Title(参考訳): 連続多様体上の離散計算の学習に関する創発的リーマン幾何学
- Authors: Julian Brandon, Angus Chadwick, Arthur Pellegrino,
- Abstract要約: 離散計算のシグネチャがニューラルネットワークの表現幾何学に現れることを示す。
我々は、異なる学習体制(リッチ対遅延)がメートル法と曲率構造を対比し、ネットワークが目に見えない入力に一般化する能力にどのように影響するかを実証する。
- 参考スコア(独自算出の注目度): 1.8665975431697432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many tasks require mapping continuous input data (e.g. images) to discrete task outputs (e.g. class labels). Yet, how neural networks learn to perform such discrete computations on continuous data manifolds remains poorly understood. Here, we show that signatures of such computations emerge in the representational geometry of neural networks as they learn. By analysing the Riemannian pullback metric across layers of a neural network, we find that network computation can be decomposed into two functions: discretising continuous input features and performing logical operations on these discretised variables. Furthermore, we demonstrate how different learning regimes (rich vs. lazy) have contrasting metric and curvature structures, affecting the ability of the networks to generalise to unseen inputs. Overall, our work provides a geometric framework for understanding how neural networks learn to perform discrete computations on continuous manifolds.
- Abstract(参考訳): 多くのタスクは連続的な入力データ(例えばイメージ)を個別のタスク出力(例えばクラスラベル)にマッピングする必要があります。
しかし、連続データ多様体上でそのような離散的な計算を行うためにニューラルネットワークがどのように学習するかは、まだよく分かっていない。
ここでは、ニューラルネットワークが学習する際の表現幾何学において、そのような計算のシグネチャが現れることを示す。
ニューラルネットワークの層にまたがるリーマンの引き戻し距離を解析することにより、ネットワーク計算は連続的な入力特徴の認識とこれらの離散化された変数の論理演算の2つの関数に分解できることがわかった。
さらに、異なる学習体制(リッチ対遅延)がメートル法と曲率構造を対比し、ネットワークが目に見えない入力に一般化する能力に影響を及ぼすことを示す。
全体として、我々の研究は、ニューラルネットワークが連続多様体上で離散的な計算を行うためにどのように学習するかを理解するための幾何学的枠組みを提供する。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Riemannian Residual Neural Networks [58.925132597945634]
残余ニューラルネットワーク(ResNet)の拡張方法を示す。
ResNetは、機械学習において、有益な学習特性、優れた経験的結果、そして様々なニューラルネットワークを構築する際に容易に組み込める性質のために、ユビキタスになった。
論文 参考訳(メタデータ) (2023-10-16T02:12:32Z) - Predictions Based on Pixel Data: Insights from PDEs and Finite Differences [0.0]
本稿では,各観測が行列である時間列の近似を扱う。
比較的小さなネットワークでは、直線法に基づいて、PDEの数値的な離散化のクラスを正確に表現できることが示される。
我々のネットワークアーキテクチャは、典型的に時系列の近似に採用されているものから着想を得ている。
論文 参考訳(メタデータ) (2023-05-01T08:54:45Z) - How does training shape the Riemannian geometry of neural network representations? [36.26020698558347]
本研究では,非拘束型ニューラルネットワーク特徴写像による幾何形状の学習方法について検討する。
まず、無限の幅でランダムパラメータを持つニューラルネットワークが入力空間上で高度に対称なメトリクスを誘導することを示す。
分類タスクを実行するために訓練されたネットワークは、決定境界に沿った地域を拡大するために学習する。
論文 参考訳(メタデータ) (2023-01-26T19:43:16Z) - Discretization Invariant Networks for Learning Maps between Neural
Fields [3.09125960098955]
離散化不変ニューラルネットワーク(DI-Net)の理解と設計のための新しいフレームワークを提案する。
我々の分析は、異なる有限離散化の下でのモデル出力の偏差の上限を確立する。
構成により、DI-Netsは可積分函数空間間の大きな写像のクラスを普遍的に近似することが証明される。
論文 参考訳(メタデータ) (2022-06-02T17:44:03Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Deep Parametric Continuous Convolutional Neural Networks [92.87547731907176]
Parametric Continuous Convolutionは、非グリッド構造化データ上で動作する、新たな学習可能な演算子である。
室内および屋外シーンの点雲セグメンテーションにおける最先端技術よりも顕著な改善が見られた。
論文 参考訳(メタデータ) (2021-01-17T18:28:23Z) - Continuous-in-Depth Neural Networks [107.47887213490134]
まず最初に、このリッチな意味では、ResNetsは意味のある動的でないことを示します。
次に、ニューラルネットワークモデルが連続力学系を表現することを実証する。
ResNetアーキテクチャの詳細な一般化としてContinuousNetを紹介します。
論文 参考訳(メタデータ) (2020-08-05T22:54:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。