論文の概要: Jet Functors and Weil Algebras in Automatic Differentiation: A Geometric Analysis
- arxiv url: http://arxiv.org/abs/2510.14342v1
- Date: Thu, 16 Oct 2025 06:25:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.746358
- Title: Jet Functors and Weil Algebras in Automatic Differentiation: A Geometric Analysis
- Title(参考訳): 自動識別におけるジェットファンクタとワイル代数 : 幾何学的解析
- Authors: Amandip Sangha,
- Abstract要約: ジェットバンドルとワイル代数を用いた自動微分(AD)の幾何学的定式化を提案する。
正確さ、安定性、複雑さに関する簡潔な言明を導き出す。
この枠組みは、微分幾何学のレンズを通してAD理論を解釈する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present a geometric formulation of automatic differentiation (AD) using jet bundles and Weil algebras. Reverse-mode AD emerges as cotangent-pullback, while Taylor-mode corresponds to evaluation in a Weil algebra. From these principles, we derive concise statements on correctness, stability, and complexity: a functorial identity for reverse-mode, algebraic exactness of higher-order derivatives, and explicit bounds on truncation error. We further show that tensorized Weil algebras permit one-pass computation of all mixed derivatives with cost linear in the algebra dimension, avoiding the combinatorial blow-up of nested JVP/VJP schedules. This framework interprets AD theory through the lens of differential geometry and offers a foundation for developing structure-preserving differentiation methods in deep learning and scientific computing. Code and examples are available at https://git.nilu.no/geometric-ad/jet-weil-ad.
- Abstract(参考訳): ジェットバンドルとワイル代数を用いた自動微分(AD)の幾何学的定式化を提案する。
逆モード AD は余接プルバックとして現れるが、テイラーモードはヴェイユ代数での評価に対応する。
これらの原理から、逆モードの関手的同一性、高階微分の代数的完全性、およびトランケーション誤差の明示的境界という、正確性、安定性、複雑さに関する言明を導出する。
さらに、テンソル化ワイル代数は、入れ子付きJVP/VJPスケジュールの組合せ爆破を避けるために、代数学次元においてコストのかかる全ての混合微分の1パス計算を可能にすることを示す。
このフレームワークは、微分幾何学のレンズを通してAD理論を解釈し、深層学習と科学計算における構造保存型微分法の開発の基礎を提供する。
コードと例はhttps://git.nilu.no/geometric-ad/jet-weil-adで公開されている。
関連論文リスト
- Expressive Power of Deep Networks on Manifolds: Simultaneous Approximation [2.815765641180636]
境界重みを持つ定数深度$mathrmReLUk-1$ネットワークは、ソボレフ空間内の任意の関数を近似することができることを示す。
また、必要なパラメータ数が対数係数に一致することを示すことで、我々の構成がほぼ最適であることを示す。
論文 参考訳(メタデータ) (2025-09-11T11:28:20Z) - Matrix Calculus (for Machine Learning and Beyond) [0.2647285178819813]
このコースはより一般的なベクトル空間上の函数への微分積分の拡張を導入する。
大規模最適化や機械学習といった実用的な計算応用を強調している。
論文 参考訳(メタデータ) (2025-01-07T18:38:35Z) - A tutorial on automatic differentiation with complex numbers [6.0735728088312175]
このチュートリアルは、ユーザーや開発者にとっても、カスタムのグラデーション伝搬ルールを実装する際に、複雑な値を真剣に扱うための呼び出しである。
本稿では,複素数を用いた前方・逆モード自動微分について検討する。
論文 参考訳(メタデータ) (2024-09-10T14:04:58Z) - Tempered Calculus for ML: Application to Hyperbolic Model Embedding [70.61101116794549]
MLで使用されるほとんどの数学的歪みは、本質的に自然界において積分的である。
本稿では,これらの歪みを改善するための基礎的理論とツールを公表し,機械学習の要件に対処する。
我々は、最近MLで注目を集めた問題、すなわち、ハイパーボリック埋め込みを「チープ」で正確なエンコーディングで適用する方法を示す。
論文 参考訳(メタデータ) (2024-02-06T17:21:06Z) - CoLA: Exploiting Compositional Structure for Automatic and Efficient
Numerical Linear Algebra [62.37017125812101]
機械学習における大規模線形代数問題に対して, CoLA という, 単純だが汎用的なフレームワークを提案する。
線形演算子抽象と合成ディスパッチルールを組み合わせることで、CoLAはメモリと実行時の効率的な数値アルゴリズムを自動的に構築する。
偏微分方程式,ガウス過程,同変モデル構築,教師なし学習など,幅広い応用で有効性を示す。
論文 参考訳(メタデータ) (2023-09-06T14:59:38Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。