論文の概要: O$n$ Learning Deep O($n$)-Equivariant Hyperspheres
- arxiv url: http://arxiv.org/abs/2305.15613v7
- Date: Mon, 27 May 2024 16:50:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-01 00:12:24.764735
- Title: O$n$ Learning Deep O($n$)-Equivariant Hyperspheres
- Title(参考訳): O$n$ Learning Deep O($n$)-同変超球面
- Authors: Pavlo Melnyk, Michael Felsberg, Mårten Wadenbäck, Andreas Robinson, Cuong Le,
- Abstract要約: 我々は、$n$Dの反射と回転の変換の下で、深い特徴同変を学習するためのアプローチを提案する。
すなわち、任意の次元$n$に一般化する球面決定曲面を持つ O$(n)$-同変ニューロンを提案する。
我々は理論的貢献を実験的に検証し、O$(n)$-equivariantベンチマークデータセットの競合する手法よりもアプローチの方が優れていることを発見した。
- 参考スコア(独自算出の注目度): 18.010317026027028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we utilize hyperspheres and regular $n$-simplexes and propose an approach to learning deep features equivariant under the transformations of $n$D reflections and rotations, encompassed by the powerful group of O$(n)$. Namely, we propose O$(n)$-equivariant neurons with spherical decision surfaces that generalize to any dimension $n$, which we call Deep Equivariant Hyperspheres. We demonstrate how to combine them in a network that directly operates on the basis of the input points and propose an invariant operator based on the relation between two points and a sphere, which as we show, turns out to be a Gram matrix. Using synthetic and real-world data in $n$D, we experimentally verify our theoretical contributions and find that our approach is superior to the competing methods for O$(n)$-equivariant benchmark datasets (classification and regression), demonstrating a favorable speed/performance trade-off. The code is available at https://github.com/pavlo-melnyk/equivariant-hyperspheres.
- Abstract(参考訳): 本稿では、超球面と正則$n$-プレプレックスを利用し、O$(n)$の強力な群に包含された$n$D反射と回転の変換の下で、深い特徴同変を学習するためのアプローチを提案する。
すなわち、O$(n)$-equivariant neuros with spherical decision surfaces that generalize to any dimension $n$, which we called Deep Equivariant Hyperspheres。
入力点を直接操作するネットワーク上でそれらを結合する方法を実証し、二つの点と球の関係に基づいて不変作用素を提案する。
提案手法はO$(n)$-equivariantベンチマークデータセット(分類と回帰)の競合手法よりも優れており、良好な速度/性能のトレードオフを示す。
コードはhttps://github.com/pavlo-melnyk/equivariant-hyperspheresで公開されている。
関連論文リスト
- Approximation Rates for Shallow ReLU$^k$ Neural Networks on Sobolev Spaces via the Radon Transform [4.096453902709292]
我々は,ReLU$k$アクティベーション関数がソボレフ空間からの関数をいかに効率的に近似できるかという問題を考察する。
例えば、$qleq p$, $pgeq 2$, $s leq k + (d+1)/2$ などである。
論文 参考訳(メタデータ) (2024-08-20T16:43:45Z) - Fast, Expressive SE$(n)$ Equivariant Networks through Weight-Sharing in Position-Orientation Space [15.495593104596399]
我々は,畳み込みネットワークにおける重み共有の概念を,ポイントペア上でのメッセージ関数の共有として定式化する。
我々は3次元点雲処理のための効率的な同変群畳み込みネットワークを開発した。
論文 参考訳(メタデータ) (2023-10-04T17:06:32Z) - Effective Minkowski Dimension of Deep Nonparametric Regression: Function
Approximation and Statistical Theories [70.90012822736988]
ディープ非パラメトリック回帰に関する既存の理論は、入力データが低次元多様体上にある場合、ディープニューラルネットワークは本質的なデータ構造に適応できることを示した。
本稿では,$mathcalS$で表される$mathbbRd$のサブセットに入力データが集中するという緩和された仮定を導入する。
論文 参考訳(メタデータ) (2023-06-26T17:13:31Z) - Equivalence Between SE(3) Equivariant Networks via Steerable Kernels and
Group Convolution [90.67482899242093]
近年, 入力の回転と変換において等価な3次元データに対して, ニューラルネットワークを設計するための幅広い手法が提案されている。
両手法とその等価性を詳細に解析し,その2つの構成をマルチビュー畳み込みネットワークに関連付ける。
また、同値原理から新しいTFN非線形性を導出し、実用的なベンチマークデータセット上でテストする。
論文 参考訳(メタデータ) (2022-11-29T03:42:11Z) - Scalable and Equivariant Spherical CNNs by Discrete-Continuous (DISCO)
Convolutions [5.8808473430456525]
既存の球面畳み込みニューラルネットワーク(CNN)フレームワークは、計算的拡張性と回転的同変の両方である。
我々は、高分解能に対して同変かつ計算的に同値なハイブリッド離散連続群畳み込み(DISCO)を開発する。
4kの球面画像では、計算コストが109ドル、メモリ使用量が104ドルである。
論文 参考訳(メタデータ) (2022-09-27T18:00:01Z) - Lessons from $O(N)$ models in one dimension [0.0]
1つの時空次元(通常の量子力学)における$O(N)$モデルに関連する様々なトピックが考慮される。
その焦点は、より単純な文脈で量子場理論の手法を教育的に提示することである。
論文 参考訳(メタデータ) (2021-09-14T11:36:30Z) - Quantum double aspects of surface code models [77.34726150561087]
基礎となる量子double $D(G)$対称性を持つ正方格子上でのフォールトトレラント量子コンピューティングの北エフモデルを再検討する。
有限次元ホップ代数$H$に基づいて、我々の構成がどのように$D(H)$モデルに一般化するかを示す。
論文 参考訳(メタデータ) (2021-06-25T17:03:38Z) - Geometric Deep Learning and Equivariant Neural Networks [0.9381376621526817]
幾何学的深層学習の数学的基礎を調査し,群同変とゲージ同変ニューラルネットワークに着目した。
任意の多様体 $mathcalM$ 上のゲージ同変畳み込みニューラルネットワークを、構造群 $K$ の主バンドルと、関連するベクトルバンドルの切断間の同変写像を用いて開発する。
セマンティックセグメンテーションやオブジェクト検出ネットワークなど,このフォーマリズムのいくつかの応用を解析する。
論文 参考訳(メタデータ) (2021-05-28T15:41:52Z) - A Practical Method for Constructing Equivariant Multilayer Perceptrons
for Arbitrary Matrix Groups [115.58550697886987]
行列群の同変層を解くための完全一般的なアルゴリズムを提供する。
他作品からのソリューションを特殊ケースとして回収するだけでなく、これまで取り組んだことのない複数のグループと等価な多層パーセプトロンを構築します。
提案手法は, 粒子物理学および力学系への応用により, 非同変基底線より優れる。
論文 参考訳(メタデータ) (2021-04-19T17:21:54Z) - A deep network construction that adapts to intrinsic dimensionality
beyond the domain [79.23797234241471]
本稿では,ReLUを活性化したディープネットワークを用いて,2層合成の近似を$f(x) = g(phi(x))$で検討する。
例えば、低次元埋め込み部分多様体への射影と、低次元集合の集合への距離である。
論文 参考訳(メタデータ) (2020-08-06T09:50:29Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。