論文の概要: Intrinsic Lorentz Neural Network
- arxiv url: http://arxiv.org/abs/2602.23981v1
- Date: Fri, 27 Feb 2026 12:48:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.428453
- Title: Intrinsic Lorentz Neural Network
- Title(参考訳): 固有ローレンツニューラルネットワーク
- Authors: Xianglong Shi, Ziheng Chen, Yunhan Jiang, Nicu Sebe,
- Abstract要約: 実世界のデータは、しばしば、双曲幾何学によって自然に表される潜在階層構造を示す。
本稿では,全計算をローレンツモデル内で行う完全内在型双曲型アーキテクチャであるEmphIntrinsic Lorentz Neural Network (ILNN)を提案する。
ネットワークの中核は、従来のユークリッド・アフィン・ロジットを閉形双曲線距離に置き換え、新しいエンファンポイント-ハイアプレーン完全連結層(FC)を導入している。
- 参考スコア(独自算出の注目度): 49.83037691286893
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-world data frequently exhibit latent hierarchical structures, which can be naturally represented by hyperbolic geometry. Although recent hyperbolic neural networks have demonstrated promising results, many existing architectures remain partially intrinsic, mixing Euclidean operations with hyperbolic ones or relying on extrinsic parameterizations. To address it, we propose the \emph{Intrinsic Lorentz Neural Network} (ILNN), a fully intrinsic hyperbolic architecture that conducts all computations within the Lorentz model. At its core, the network introduces a novel \emph{point-to-hyperplane} fully connected layer (FC), replacing traditional Euclidean affine logits with closed-form hyperbolic distances from features to learned Lorentz hyperplanes, thereby ensuring that the resulting geometric decision functions respect the inherent curvature. Around this fundamental layer, we design intrinsic modules: GyroLBN, a Lorentz batch normalization that couples gyro-centering with gyro-scaling, consistently outperforming both LBN and GyroBN while reducing training time. We additionally proposed a gyro-additive bias for the FC output, a Lorentz patch-concatenation operator that aligns the expected log-radius across feature blocks via a digamma-based scale, and a Lorentz dropout layer. Extensive experiments conducted on CIFAR-10/100 and two genomic benchmarks (TEB and GUE) illustrate that ILNN achieves state-of-the-art performance and computational cost among hyperbolic models and consistently surpasses strong Euclidean baselines. The code is available at \href{https://github.com/Longchentong/ILNN}{\textcolor{magenta}{this url}}.
- Abstract(参考訳): 実世界のデータは、しばしば、双曲幾何学によって自然に表される潜在階層構造を示す。
最近の双曲型ニューラルネットワークは有望な結果を示しているが、多くの既存のアーキテクチャは部分的に内在的であり、ユークリッド演算を双曲型ニューラルネットワークと混合するか、または外因性パラメータ化に依存している。
そこで本研究では,ローレンツモデル内で全ての計算を行う,完全固有双曲型アーキテクチャである 'emph{Intrinsic Lorentz Neural Network} (ILNN) を提案する。
ネットワークの核となるのは、新しい 'emph{point-to-hyperplane} full connected layer (FC) を導入し、伝統的なユークリッド・アフィン・ロジットを、学習されたローレンツ超平面から閉形式の双曲距離に置き換え、結果として得られる幾何学的決定関数が固有曲率を尊重することを保証する。
GyroLBNは、ジャイロ中心とジャイロスケーリングを結合するローレンツバッチ正規化であり、トレーニング時間を短縮しながら、LBNとGyroBNを一貫して上回る。
さらに, FC出力に対するジャイロ付加バイアス, 期待対数半径を, ダイガンマベーススケール, ローレンツドロップアウト層を介して特徴ブロック間で整列するローレンツパッチ結合演算子を提案する。
CIFAR-10/100と2つのゲノミクスベンチマーク(TEBとGUE)で実施された大規模な実験は、ILNNが双曲モデル間の最先端のパフォーマンスと計算コストを達成し、強いユークリッド基底線を一貫して上回っていることを示している。
コードは \href{https://github.com/Longchentong/ILNN}{\textcolor{magenta}{this url}} で公開されている。
関連論文リスト
- Hyperbolic Busemann Neural Networks [100.27390895360753]
本研究では,ニューラルネットワークの中核となる2つの要素,MLR(Multinomial Logistic Regression)層とFC(Fully Connected)層をブセマン関数を介して双曲空間に持ち上げる。
BMLRはコンパクトパラメータ、対空距離解釈、バッチ効率計算、ユークリッド極限を提供する。
画像分類、ゲノムシークエンス学習、ノード分類、リンク予測の実験は、以前の双曲層よりも有効性と効率が向上したことを示している。
論文 参考訳(メタデータ) (2026-02-21T14:45:40Z) - Fast and Geometrically Grounded Lorentz Neural Networks [44.564864487582525]
双曲型ニューラルネットの定式化は効率的で,双曲型空間の重要な特性を捉えることができる。
現在のローレンツ線型層の定式化により、出力の双曲ノルムは勾配降下ステップの数と対数的にスケールすることが証明される。
我々の新しい定式化とローレンツの活性化関数によるさらなる効率性、そして新しいキャッシング戦略により、ニューラルネットワークは双曲幾何学によって完全に支配される。
論文 参考訳(メタデータ) (2026-01-29T10:44:32Z) - Lorentz Local Canonicalization: How to Make Any Network Lorentz-Equivariant [9.946772087556333]
ローレンツ同変ニューラルネットワークは高エネルギー物理学の主要なアーキテクチャになりつつある。
Lorentz Local Canonicalization (LLoCa)は,任意のバックボーンネットワークを正確にLorentz-equivariantでレンダリングする一般的なフレームワークである。
我々のモデルは、関連する粒子物理学のタスクにおいて、競争力と最先端の精度を達成すると同時に、より高速で、より少ないFLOPで10倍の10倍の精度を実現している。
論文 参考訳(メタデータ) (2025-05-26T17:57:17Z) - Can we ease the Injectivity Bottleneck on Lorentzian Manifolds for Graph Neural Networks? [0.0]
Lorentzian Graph Isomorphic Network (LGIN)は、Lorentzianモデル内での識別性を高めるために設計された新しいHGNNである。
LGINは、強力で差別性の高いGNNアーキテクチャの原理をリーマン多様体に適応させた最初のものである。
論文 参考訳(メタデータ) (2025-03-31T18:49:34Z) - Hyperbolic Binary Neural Network [17.84584119915958]
バイナリニューラルネットワーク(BNN)は、完全精度の重みとアクティベーションを極端な1ビットに変換する。
本稿では,双曲的幾何の枠組みを利用して制約された問題を最適化し,双曲型双曲型ニューラルネットワーク(HBNN)を提案する。
論文 参考訳(メタデータ) (2025-01-07T02:15:58Z) - Kronecker-Factored Approximate Curvature for Modern Neural Network
Architectures [85.76673783330334]
線形重み付け層の2つの異なる設定がクロネッカー型近似曲率(K-FAC)の2つの風味を動機付けている
重み付けをそれぞれ設定したディープ・リニア・ネットワークに対して正確であることを示す。
グラフニューラルネットワークと視覚変換器の両方をトレーニングするために、これらの2つのK-FACの違いをほとんど観測しない。
論文 参考訳(メタデータ) (2023-11-01T16:37:00Z) - A Unification Framework for Euclidean and Hyperbolic Graph Neural
Networks [8.080621697426997]
ハイパーボリックニューラルネットワークは、グラフデータセット固有の階層を効果的にキャプチャする。
層内の複数の非連続(ジャイロ-)ベクトル空間を絡み合わせることで、一般化と拡張性の観点から制限される。
検索空間としてPoincareディスクモデルを提案し,ディスク上にすべての近似を適用する。
我々のモデルは、解釈可能性や様々なモデルコンポーネントの効率的な実行といったユークリッドネットワークのパワーを利用するだけでなく、様々なベンチマークにおいてユークリッドと双曲の双方よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-09T05:33:02Z) - Fully Hyperbolic Neural Networks [63.22521652077353]
ローレンツモデルに基づく双曲型ネットワークを構築するための,完全双曲型フレームワークを提案する。
提案手法は,浅層ネットワークと深層ネットワークの両方を構築する上で,優れた性能を示す。
論文 参考訳(メタデータ) (2021-05-31T03:36:49Z) - Hyperbolic Variational Graph Neural Network for Modeling Dynamic Graphs [77.33781731432163]
我々は,ノード表現の推論を目的とした双曲空間における動的グラフ表現を初めて学習する。
本稿では,HVGNNと呼ばれる新しいハイパーボリック変動グラフネットワークを提案する。
特に,動力学をモデル化するために,理論的に接地した時間符号化手法に基づく時間gnn(tgnn)を導入する。
論文 参考訳(メタデータ) (2021-04-06T01:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。