論文の概要: Hyperbolic Busemann Neural Networks
- arxiv url: http://arxiv.org/abs/2602.18858v1
- Date: Sat, 21 Feb 2026 14:45:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.360542
- Title: Hyperbolic Busemann Neural Networks
- Title(参考訳): 双曲型ブセマンニューラルネットワーク
- Authors: Ziheng Chen, Bernhard Schölkopf, Nicu Sebe,
- Abstract要約: 本研究では,ニューラルネットワークの中核となる2つの要素,MLR(Multinomial Logistic Regression)層とFC(Fully Connected)層をブセマン関数を介して双曲空間に持ち上げる。
BMLRはコンパクトパラメータ、対空距離解釈、バッチ効率計算、ユークリッド極限を提供する。
画像分類、ゲノムシークエンス学習、ノード分類、リンク予測の実験は、以前の双曲層よりも有効性と効率が向上したことを示している。
- 参考スコア(独自算出の注目度): 100.27390895360753
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Hyperbolic spaces provide a natural geometry for representing hierarchical and tree-structured data due to their exponential volume growth. To leverage these benefits, neural networks require intrinsic and efficient components that operate directly in hyperbolic space. In this work, we lift two core components of neural networks, Multinomial Logistic Regression (MLR) and Fully Connected (FC) layers, into hyperbolic space via Busemann functions, resulting in Busemann MLR (BMLR) and Busemann FC (BFC) layers with a unified mathematical interpretation. BMLR provides compact parameters, a point-to-horosphere distance interpretation, batch-efficient computation, and a Euclidean limit, while BFC generalizes FC and activation layers with comparable complexity. Experiments on image classification, genome sequence learning, node classification, and link prediction demonstrate improvements in effectiveness and efficiency over prior hyperbolic layers. The code is available at https://github.com/GitZH-Chen/HBNN.
- Abstract(参考訳): 双曲空間は、その指数的体積成長のために階層的および木構造的なデータを表現するための自然な幾何学を提供する。
これらの利点を活用するために、ニューラルネットワークは双曲空間で直接動作する本質的で効率的なコンポーネントを必要とする。
本研究では,ニューラルネットワークの中核となる2つの構成要素であるMLR(Multinomial Logistic Regression)層とFC(Fully Connected)層をブセマン関数を介して双曲空間に持ち上げることにより,ブセマン MLR(BMLR)層とブセマン FC(BFC)層を統一的な数学的解釈で実現した。
BMLRはコンパクトなパラメータ、対空距離の解釈、バッチ効率の計算、ユークリッド制限を提供し、BFCはFCとアクティベーション層を同等の複雑さで一般化する。
画像分類、ゲノムシークエンス学習、ノード分類、リンク予測の実験は、以前の双曲層よりも有効性と効率が向上したことを示している。
コードはhttps://github.com/GitZH-Chen/HBNNで公開されている。
関連論文リスト
- EUGens: Efficient, Unified, and General Dense Layers [56.498769704575544]
我々は、標準完全連結フィードフォワード層、textbfEfficient、 textbfUnimat、 textbfGeneral dense layer (EUGens) を一般化する新しい階層のクラスを提案する。
EUGensはランダムな特徴を活用して標準的なFFLを近似し、その計算に入力ノルムに直接的な依存を組み込むことによってそれらを超える。
論文 参考訳(メタデータ) (2026-01-30T05:01:03Z) - Siegel Neural Networks [13.967997485149192]
本稿では,シーゲル空間上での識別ニューラルネットワーク構築のための新しい手法を提案する。
その結果,全データセットにおける最先端性能の実証に成功している。
論文 参考訳(メタデータ) (2025-11-12T07:47:46Z) - LipKernel: Lipschitz-Bounded Convolutional Neural Networks via Dissipative Layers [0.0468732641979009]
本稿では,畳み込みニューラルネットワーク(CNN)の階層的パラメータ化を提案する。
提案手法は,2次元ロエサー型状態空間モデルを用いて,散逸型畳み込みカーネルを直接パラメータ化する。
提案手法を用いた実行時間は,最先端のリプシッツ有界ネットワークよりも桁違いに高速であることを示す。
論文 参考訳(メタデータ) (2024-10-29T17:20:14Z) - Matrix Manifold Neural Networks++ [18.385670036798707]
我々はSPDニューラルネットワークのための完全接続層を設計する。
本稿では,プロジェクタの観点から,グラスマン対数写像を用いて逆プロパゲーションを行う手法を提案する。
論文 参考訳(メタデータ) (2024-05-29T15:47:35Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - Data Topology-Dependent Upper Bounds of Neural Network Widths [52.58441144171022]
まず、3層ニューラルネットワークがコンパクトな集合上のインジケータ関数を近似するように設計可能であることを示す。
その後、これは単純複体へと拡張され、その位相構造に基づいて幅の上界が導かれる。
トポロジカルアプローチを用いて3層ReLUネットワークの普遍近似特性を証明した。
論文 参考訳(メタデータ) (2023-05-25T14:17:15Z) - Exploring the Approximation Capabilities of Multiplicative Neural
Networks for Smooth Functions [9.936974568429173]
対象関数のクラスは、一般化帯域制限関数とソボレフ型球である。
以上の結果から、乗法ニューラルネットワークは、これらの関数をはるかに少ない層とニューロンで近似できることを示した。
これらの結果は、乗法ゲートが標準フィードフォワード層より優れ、ニューラルネットワーク設計を改善する可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-01-11T17:57:33Z) - Hyperbolic Neural Networks++ [66.16106727715061]
ニューラルネットワークの基本成分を1つの双曲幾何モデル、すなわちポアンカーの球モデルで一般化する。
実験により, 従来の双曲成分と比較してパラメータ効率が優れ, ユークリッド成分よりも安定性と性能が優れていた。
論文 参考訳(メタデータ) (2020-06-15T08:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。