論文の概要: SE(3)-Transformers: 3D Roto-Translation Equivariant Attention Networks
- arxiv url: http://arxiv.org/abs/2006.10503v3
- Date: Tue, 24 Nov 2020 19:03:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 12:49:23.702601
- Title: SE(3)-Transformers: 3D Roto-Translation Equivariant Attention Networks
- Title(参考訳): SE(3)変換器:3次元ロト変換等価アテンションネットワーク
- Authors: Fabian B. Fuchs, Daniel E. Worrall, Volker Fischer, Max Welling
- Abstract要約: 連続的な3次元ロト変換の下で同変である3次元点雲とグラフに対する自己アテンションモジュールの変種であるSE(3)-Transformerを導入する。
我々は, 入力の回転下での予測の頑健性を示す, おもちゃのN体粒子シミュレーションデータセットを用いて, モデルの評価を行った。
- 参考スコア(独自算出の注目度): 71.55002934935473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the SE(3)-Transformer, a variant of the self-attention module
for 3D point clouds and graphs, which is equivariant under continuous 3D
roto-translations. Equivariance is important to ensure stable and predictable
performance in the presence of nuisance transformations of the data input. A
positive corollary of equivariance is increased weight-tying within the model.
The SE(3)-Transformer leverages the benefits of self-attention to operate on
large point clouds and graphs with varying number of points, while guaranteeing
SE(3)-equivariance for robustness. We evaluate our model on a toy N-body
particle simulation dataset, showcasing the robustness of the predictions under
rotations of the input. We further achieve competitive performance on two
real-world datasets, ScanObjectNN and QM9. In all cases, our model outperforms
a strong, non-equivariant attention baseline and an equivariant model without
attention.
- Abstract(参考訳): 連続的な3次元ロト変換の下で同変である3次元点雲とグラフに対する自己注意モジュールの変種であるSE(3)-Transformerを導入する。
等価性は、データ入力の迷惑変換の存在下で安定かつ予測可能な性能を保証するために重要である。
等分散の正の座標はモデル内の重み付けを増加させる。
SE(3)-変換器は自己アテンションの利点を利用して、大きな点の雲やグラフを様々な点数で操作し、SE(3)-等分散はロバスト性を保証する。
本研究では,n体粒子シミュレーションデータセットを用いて,入力の回転下での予測のロバスト性を示すモデルを評価する。
実世界の2つのデータセットであるScanObjectNNとQM9の競合性能をさらに向上する。
いずれの場合も、我々のモデルは強い非同変注意ベースラインと無注意同変モデルよりも優れる。
関連論文リスト
- 3D Equivariant Pose Regression via Direct Wigner-D Harmonics Prediction [50.07071392673984]
既存の方法は、角度や四元数を用いて空間領域でパラメータ化された3次元回転を学習する。
本稿では,3次元回転回帰のためのWigner-D係数を直接予測する周波数領域アプローチを提案する。
提案手法は, ModelNet10-SO(3) や PASCAL3D+ などのベンチマーク上での最先端結果を実現する。
論文 参考訳(メタデータ) (2024-11-01T12:50:38Z) - Equi-GSPR: Equivariant SE(3) Graph Network Model for Sparse Point Cloud Registration [2.814748676983944]
局所球面ユークリッド3次元等分散特性をSE(3)メッセージパッシングに基づく伝搬により埋め込んだグラフニューラルネットワークモデルを提案する。
我々のモデルは、主に記述モジュール、同変グラフ層、類似性、最終的な回帰層から構成される。
3DMatchおよびKITTIデータセットで行った実験は、最先端のアプローチと比較して、我々のモデルの魅力的で堅牢な性能を示している。
論文 参考訳(メタデータ) (2024-10-08T06:48:01Z) - UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - Equivariant Spatio-Temporal Self-Supervision for LiDAR Object Detection [37.142470149311904]
本研究では,空間的および時間的拡張を両立させることにより,時間的同変学習の枠組みを提案する。
既存の等変および不変のアプローチを多くの設定で上回る3次元物体検出のための事前学習法を示す。
論文 参考訳(メタデータ) (2024-04-17T20:41:49Z) - Transformers meet Stochastic Block Models: Attention with Data-Adaptive
Sparsity and Cost [53.746169882193456]
最近の研究は、自己注意の二次的コストを克服するために、様々なスパークアテンションモジュールを提案している。
本稿では,それぞれの注意を混合メンバーシップブロックモデルで表現することで,両方の問題を解決するモデルを提案する。
我々のモデルは、以前の効率的な変種とオリジナルのトランスフォーマーより優れており、十分に注目されています。
論文 参考訳(メタデータ) (2022-10-27T15:30:52Z) - Equiformer: Equivariant Graph Attention Transformer for 3D Atomistic
Graphs [3.0603554929274908]
3D関連誘導バイアスは、分子のような3D原子性グラフで動作するグラフニューラルネットワークには不可欠である。
様々な領域におけるトランスフォーマーの成功に触発されて、これらのインダクティブバイアスをトランスフォーマーに組み込む方法について研究する。
本稿では,Transformerアーキテクチャの強みを利用したグラフニューラルネットワークであるEquiformerを提案する。
論文 参考訳(メタデータ) (2022-06-23T21:40:37Z) - VN-Transformer: Rotation-Equivariant Attention for Vector Neurons [13.027392571994204]
本稿では,現在のVNモデルの欠点に対処するため,新しい「VN変換器」アーキテクチャを提案する。
我々はVN変換器を3次元形状分類と動き予測に応用し、説得力のある結果を得た。
論文 参考訳(メタデータ) (2022-06-08T21:48:47Z) - Geometry-Contrastive Transformer for Generalized 3D Pose Transfer [95.56457218144983]
この研究の直感は、与えられたメッシュ間の幾何学的不整合を強力な自己認識機構で知覚することである。
本研究では,グローバルな幾何学的不整合に対する3次元構造的知覚能力を有する新しい幾何学コントラスト変換器を提案する。
本稿では, クロスデータセット3次元ポーズ伝達タスクのための半合成データセットとともに, 潜時等尺正則化モジュールを提案する。
論文 参考訳(メタデータ) (2021-12-14T13:14:24Z) - Equivariant Point Network for 3D Point Cloud Analysis [17.689949017410836]
点雲解析のための実効的で実用的なSE(3)(3次元翻訳と回転)同変ネットワークを提案する。
まず,6次元の畳み込みを2つの分離可能な畳み込み作用素に分解する新しい枠組みであるSE(3)分離点畳み込みを提案する。
第2に,同変特徴の表現性を効果的に活用するアテンション層を導入する。
論文 参考訳(メタデータ) (2021-03-25T21:57:10Z) - Adjoint Rigid Transform Network: Task-conditioned Alignment of 3D Shapes [86.2129580231191]
Adjoint Rigid Transform (ART) Networkは、さまざまな3Dネットワークと統合可能なニューラルネットワークモジュールである。
ARTは入力の形状を学習した標準方向に回転させることを学び、多くのタスクに欠かせない。
さらなる研究のために、コードと事前訓練されたモデルをリリースします。
論文 参考訳(メタデータ) (2021-02-01T20:58:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。