論文の概要: VNT-Net: Rotational Invariant Vector Neuron Transformers
- arxiv url: http://arxiv.org/abs/2205.09690v1
- Date: Thu, 19 May 2022 16:51:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-20 13:56:57.044249
- Title: VNT-Net: Rotational Invariant Vector Neuron Transformers
- Title(参考訳): VNT-Net:回転不変ベクトルニューロントランス
- Authors: Hedi Zisling and Andrei Sharf
- Abstract要約: 本稿では,最近導入されたベクトルニューロンと自己注意層を組み合わせた回転不変ニューラルネットワークを提案する。
実験により、我々のネットワークは任意のポーズで3Dポイントのクラウドオブジェクトを効率的に処理することを示した。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning 3D point sets with rotational invariance is an important and
challenging problem in machine learning. Through rotational invariant
architectures, 3D point cloud neural networks are relieved from requiring a
canonical global pose and from exhaustive data augmentation with all possible
rotations. In this work, we introduce a rotational invariant neural network by
combining recently introduced vector neurons with self-attention layers to
build a point cloud vector neuron transformer network (VNT-Net). Vector neurons
are known for their simplicity and versatility in representing SO(3) actions
and are thereby incorporated in common neural operations. Similarly,
Transformer architectures have gained popularity and recently were shown
successful for images by applying directly on sequences of image patches and
achieving superior performance and convergence. In order to benefit from both
worlds, we combine the two structures by mainly showing how to adapt the
multi-headed attention layers to comply with vector neurons operations. Through
this adaptation attention layers become SO(3) and the overall network becomes
rotational invariant. Experiments demonstrate that our network efficiently
handles 3D point cloud objects in arbitrary poses. We also show that our
network achieves higher accuracy when compared to related state-of-the-art
methods and requires less training due to a smaller number of hyperparameters
in common classification and segmentation tasks.
- Abstract(参考訳): 回転不変性を持つ3次元点集合の学習は、機械学習において重要かつ困難な問題である。
回転不変アーキテクチャにより、3Dポイントのクラウドニューラルネットワークは、標準的なグローバルなポーズや、すべての可能なローテーションを伴う徹底的なデータ拡張が不要になる。
本稿では,最近導入されたベクターニューロンとセルフアテンション層を組み合わせて,点群ベクトルニューロントランスフォーマーネットワーク(vnt-net)を構築することで,回転不変ニューラルネットワークを提案する。
ベクトルニューロンは、SO(3)作用の単純さと汎用性で知られており、共通の神経操作に組み込まれている。
同様にトランスフォーマーアーキテクチャも人気を博し、最近ではイメージパッチのシーケンスに直接適用して優れたパフォーマンスと収束を達成することで、イメージに成功を収めている。
両世界の利益を享受するため,我々は2つの構造を結合し,ベクターニューロン操作に適合するマルチヘッドアテンション層をどのように適応させるかを示す。
この適応により、注意層はSO(3)となり、全体のネットワークは回転不変となる。
実験により、ネットワークは任意のポーズで3Dポイントのクラウドオブジェクトを効率的に処理することを示した。
また,本ネットワークは,関連する最先端手法と比較して精度が高く,共通分類タスクやセグメンテーションタスクにおいて,ハイパーパラメータが少ないため,トレーニングの必要が少なくなることを示す。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Leveraging SO(3)-steerable convolutions for pose-robust semantic segmentation in 3D medical data [2.207533492015563]
球面調和に基づく同変ボクセル畳み込みを用いたセグメンテーションネットワークを新たに提案する。
これらのネットワークは、トレーニング中に見えないデータポーズに対して堅牢であり、トレーニング中にローテーションベースのデータ拡張を必要としない。
MRI脳腫瘍におけるセグメンテーション性能と健常な脳構造セグメンテーション課題について検討した。
論文 参考訳(メタデータ) (2023-03-01T09:27:08Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Exploring the Approximation Capabilities of Multiplicative Neural
Networks for Smooth Functions [9.936974568429173]
対象関数のクラスは、一般化帯域制限関数とソボレフ型球である。
以上の結果から、乗法ニューラルネットワークは、これらの関数をはるかに少ない層とニューロンで近似できることを示した。
これらの結果は、乗法ゲートが標準フィードフォワード層より優れ、ニューラルネットワーク設計を改善する可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-01-11T17:57:33Z) - Moving Frame Net: SE(3)-Equivariant Network for Volumes [0.0]
移動フレームアプローチに基づく画像データのための回転・変換同変ニューラルネットワークを提案する。
入力段階において、移動フレームの計算を1つに減らし、そのアプローチを大幅に改善する。
我々の訓練されたモデルは、MedMNIST3Dの試験されたデータセットの大部分の医療ボリューム分類において、ベンチマークを上回ります。
論文 参考訳(メタデータ) (2022-11-07T10:25:38Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Vector Neurons: A General Framework for SO(3)-Equivariant Networks [32.81671803104126]
本稿では,ベクトルニューロン表現(Vector Neuron representations)をベースとした汎用フレームワークを提案する。
我々のベクトルニューロンは、SO(3) の作用を潜在空間へ簡単にマッピングできる。
また、回転等変性再構成ネットワークを初めて示しました。
論文 参考訳(メタデータ) (2021-04-25T18:48:15Z) - SpinNet: Learning a General Surface Descriptor for 3D Point Cloud
Registration [57.28608414782315]
ローカルな特徴を抽出するために、SpinNetと呼ばれる新しい、概念的にはシンプルで、ニューラルなアーキテクチャを導入する。
屋内と屋外の両方の実験では、SpinNetが既存の最先端技術より優れていることが示されている。
論文 参考訳(メタデータ) (2020-11-24T15:00:56Z) - Rotation-Invariant Local-to-Global Representation Learning for 3D Point
Cloud [42.86112554931754]
本稿では,3次元点クラウドデータに対する局所的-言語的表現学習アルゴリズムを提案する。
本モデルは,グラフ畳み込みニューラルネットワークに基づく多レベル抽象化を利用する。
提案アルゴリズムは,3次元物体の回転認識とセグメント化のベンチマークにおいて,最先端の性能を示す。
論文 参考訳(メタデータ) (2020-10-07T10:30:20Z) - A Rotation-Invariant Framework for Deep Point Cloud Analysis [132.91915346157018]
ネットワーク入力時に一般的な3次元カルト座標を置き換えるために,新しい低レベル純粋回転不変表現を導入する。
また,これらの表現を特徴に組み込むネットワークアーキテクチャを提案し,点とその近傍の局所的関係とグローバルな形状構造を符号化する。
本手法は, 形状分類, 部分分割, 形状検索を含む多点雲解析タスクにおいて評価する。
論文 参考訳(メタデータ) (2020-03-16T14:04:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。