論文の概要: A Simple and Universal Rotation Equivariant Point-cloud Network
- arxiv url: http://arxiv.org/abs/2203.01216v2
- Date: Thu, 3 Mar 2022 12:43:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 12:57:17.337884
- Title: A Simple and Universal Rotation Equivariant Point-cloud Network
- Title(参考訳): 簡易かつ普遍的な回転同変点クラウドネットワーク
- Authors: Ben Finkelshtein, Chaim Baskin, Haggai Maron, Nadav Dym
- Abstract要約: 近年、同変フィールドネットワークアーキテクチャは普遍的であることが示されている。
本稿では,よりシンプルなアーキテクチャを提案するとともに,同じ普遍性保証を享受できることを証明し,Modelnet40の性能評価を行う。
- 参考スコア(独自算出の注目度): 22.309014857227954
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Equivariance to permutations and rigid motions is an important inductive bias
for various 3D learning problems. Recently it has been shown that the
equivariant Tensor Field Network architecture is universal -- it can
approximate any equivariant function. In this paper we suggest a much simpler
architecture, prove that it enjoys the same universality guarantees and
evaluate its performance on Modelnet40. The code to reproduce our experiments
is available at \url{https://github.com/simpleinvariance/UniversalNetwork}
- Abstract(参考訳): 置換や剛体運動に等しいことは、様々な3次元学習問題において重要な帰納バイアスとなる。
最近、等変テンソル場ネットワークアーキテクチャが普遍であることが示され、任意の等変関数を近似することができる。
本稿では,よりシンプルなアーキテクチャを提案するとともに,同じ普遍性保証を享受し,Modelnet40の性能を評価する。
実験を再現するコードは \url{https://github.com/simpleinvariance/universalnetwork} で利用可能です。
関連論文リスト
- Weisfeiler Leman for Euclidean Equivariant Machine Learning [3.0222726571099665]
PPGNは, 複雑度が低い全点クラウド上で, 均一に2$-WLをシミュレートできることを示す。
第二に、2ドルのWLテストは、位置と速度の両方を含む点雲まで拡張可能であることを示す。
論文 参考訳(メタデータ) (2024-02-04T13:25:18Z) - Rotation-Invariant Random Features Provide a Strong Baseline for Machine
Learning on 3D Point Clouds [10.166033101890227]
三次元点雲データの回転不変関数を簡易かつ汎用的に学習する手法を提案する。
我々は,本手法が汎用回転不変ニューラルネットワークの性能に適合し,性能に優れることを示す。
論文 参考訳(メタデータ) (2023-07-27T20:18:11Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - PELICAN: Permutation Equivariant and Lorentz Invariant or Covariant
Aggregator Network for Particle Physics [64.5726087590283]
本稿では,全6次元ローレンツ対称性に対して最大で還元された入力の集合を用いた機械学習アーキテクチャを提案する。
結果として得られたネットワークは、モデル複雑さがはるかに低いにもかかわらず、既存の競合相手すべてを上回っていることを示す。
論文 参考訳(メタデータ) (2022-11-01T13:36:50Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Training or Architecture? How to Incorporate Invariance in Neural
Networks [14.162739081163444]
本稿では,グループ行動に関して,ネットワークアーキテクチャを確実に不変化する手法を提案する。
簡単に言えば、実際のネットワークにデータを送る前に、可能なトランスフォーメーションを“無効化”するつもりです。
このような手法の特性を解析し、等変ネットワークに拡張し、その利点を頑健さと計算効率の両面からいくつかの数値例で示す。
論文 参考訳(メタデータ) (2021-06-18T10:31:00Z) - Coupling-based Invertible Neural Networks Are Universal Diffeomorphism
Approximators [72.62940905965267]
結合フロー(CF-INN)に基づく可逆ニューラルネットワークは、画像合成や表現学習など、さまざまな機械学習応用を有する。
CF-INNは可逆関数に対する普遍近似器か?
我々は、ある微分同相類に対する普遍性の同値性を示す一般的な定理を証明する。
論文 参考訳(メタデータ) (2020-06-20T02:07:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。