論文の概要: Hyperbolic Neural Networks++
- arxiv url: http://arxiv.org/abs/2006.08210v3
- Date: Wed, 17 Mar 2021 14:36:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 02:57:37.404356
- Title: Hyperbolic Neural Networks++
- Title(参考訳): 双曲型ニューラルネットワーク++
- Authors: Ryohei Shimizu, Yusuke Mukuta, Tatsuya Harada
- Abstract要約: ニューラルネットワークの基本成分を1つの双曲幾何モデル、すなわちポアンカーの球モデルで一般化する。
実験により, 従来の双曲成分と比較してパラメータ効率が優れ, ユークリッド成分よりも安定性と性能が優れていた。
- 参考スコア(独自算出の注目度): 66.16106727715061
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hyperbolic spaces, which have the capacity to embed tree structures without
distortion owing to their exponential volume growth, have recently been applied
to machine learning to better capture the hierarchical nature of data. In this
study, we generalize the fundamental components of neural networks in a single
hyperbolic geometry model, namely, the Poincar\'e ball model. This novel
methodology constructs a multinomial logistic regression, fully-connected
layers, convolutional layers, and attention mechanisms under a unified
mathematical interpretation, without increasing the parameters. Experiments
show the superior parameter efficiency of our methods compared to conventional
hyperbolic components, and stability and outperformance over their Euclidean
counterparts.
- Abstract(参考訳): 指数体積成長による歪みを伴わずに木構造を埋め込む能力を持つ双曲空間は、最近、データの階層的性質をよりよく捉えるために機械学習に応用されている。
本研究では,1つの双曲幾何学モデル,すなわちポアンカーの球モデルにおいて,ニューラルネットワークの基本成分を一般化する。
本手法は, パラメータを増大させることなく, 多項対数回帰, 完全連結層, 畳み込み層, 注意機構を統一的な数学的解釈の下で構築する。
実験により,従来の双曲成分と比較してパラメータ効率が優れ,ユークリッド成分よりも安定性と性能が向上した。
関連論文リスト
- Generalized Factor Neural Network Model for High-dimensional Regression [50.554377879576066]
複素・非線形・雑音に隠れた潜在低次元構造を持つ高次元データセットをモデル化する課題に取り組む。
我々のアプローチは、非パラメトリック回帰、因子モデル、高次元回帰のためのニューラルネットワークの概念のシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2025-02-16T23:13:55Z) - Lorentzian Residual Neural Networks [15.257990326035694]
双曲幾何学のローレンツモデルにおいて、重み付けされたローレンツ中心体に基づく新しいローレンツ残留ニューラルネットワークであるLResNetを導入する。
本手法は,階層的表現能力を保ちながら,双曲型ニューラルネットワークにおける残差接続の効率的な統合を可能にする。
ハイパーボリックな埋め込み空間において、より表現力のあるニューラルネットワークを構築するためのLResNetの可能性を強調した。
論文 参考訳(メタデータ) (2024-12-19T09:56:01Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Nonlinear classification of neural manifolds with contextual information [6.292933471495322]
多様体容量は、人口幾何学とニューラル多様体の分離性とを結びつける有望な枠組みとして出現している。
本稿では,文脈入力情報を活用することによって,この制限を克服する理論的枠組みを提案する。
我々のフレームワークの表現性の向上は、階層階層の初期段階のディープネットワークにおける表現アンハングメントをキャプチャするが、以前は分析にはアクセスできない。
論文 参考訳(メタデータ) (2024-05-10T23:37:31Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Hyperbolic Deep Neural Networks: A Survey [31.04110049167551]
本論文では,このモデルを双曲型ディープニューラルネットワークと呼んでいる。
本論文では,ハイパーボリック深層ニューラルネットワークの構築における神経成分に関する文献の一貫性と総合的検討について述べる。
論文 参考訳(メタデータ) (2021-01-12T15:55:16Z) - Geometry Perspective Of Estimating Learning Capability Of Neural
Networks [0.0]
本稿では,勾配勾配勾配を用いた最小二乗回帰(SGD)を一般化したニューラルネットワークの幅広いクラスについて考察する。
一般化能力とニューラルネットワークの安定性との関係についても論じている。
ニューラルネットワークの学習理論と高エネルギー物理の原理を関連付けることにより,人工ニューラルネットワークの観点からの複雑性・摩擦予想の変種を確立する。
論文 参考訳(メタデータ) (2020-11-03T12:03:19Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z) - Geometric deep learning for computational mechanics Part I: Anisotropic
Hyperelasticity [1.8606313462183062]
本稿では, 幾何学的深層学習を用いた最初の試みであり, ソボレフトレーニングには非ユークリッドマイクロ構造データが含まれており, 異方性超構造体機械学習モデルを有限変形範囲でトレーニングすることができる。
論文 参考訳(メタデータ) (2020-01-08T02:07:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。