論文の概要: Rotationally Equivariant 3D Object Detection
- arxiv url: http://arxiv.org/abs/2204.13630v1
- Date: Thu, 28 Apr 2022 16:48:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 13:51:14.002430
- Title: Rotationally Equivariant 3D Object Detection
- Title(参考訳): 回転同変3次元物体検出
- Authors: Hong-Xing Yu, Jiajun Wu, Li Yi
- Abstract要約: 本研究では3次元シーンにおける物体検出問題について考察する。
3次元オブジェクト検出器にオブジェクトレベルの回転同値を組み込むためには,局所的なオブジェクトレベルの空間的支持を伴う同変特徴を抽出する機構が必要である。
屋内シーンと自律走行データセットの両方で実験したところ、EONの設計を既存の最先端の3Dオブジェクト検出器に接続することで、大幅な改善が得られた。
- 参考スコア(独自算出の注目度): 36.16978685382616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rotation equivariance has recently become a strongly desired property in the
3D deep learning community. Yet most existing methods focus on equivariance
regarding a global input rotation while ignoring the fact that rotation
symmetry has its own spatial support. Specifically, we consider the object
detection problem in 3D scenes, where an object bounding box should be
equivariant regarding the object pose, independent of the scene motion. This
suggests a new desired property we call object-level rotation equivariance. To
incorporate object-level rotation equivariance into 3D object detectors, we
need a mechanism to extract equivariant features with local object-level
spatial support while being able to model cross-object context information. To
this end, we propose Equivariant Object detection Network (EON) with a rotation
equivariance suspension design to achieve object-level equivariance. EON can be
applied to modern point cloud object detectors, such as VoteNet and PointRCNN,
enabling them to exploit object rotation symmetry in scene-scale inputs. Our
experiments on both indoor scene and autonomous driving datasets show that
significant improvements are obtained by plugging our EON design into existing
state-of-the-art 3D object detectors.
- Abstract(参考訳): 近年,3次元深層学習コミュニティにおいて回転同値性が強く望まれている。
しかし、既存の方法の多くは、回転対称性が独自の空間的支援を持つという事実を無視しながら、大域的な入力回転に関する同値性に焦点を当てている。
具体的には、3dシーンにおける物体検出問題について検討し、シーンの動きとは無関係に物体境界ボックスを物体ポーズに関して同値にすべきである。
これは私たちがオブジェクトレベルの回転同分散と呼ぶ新しい望ましい特性を示唆する。
オブジェクトレベルの回転同分散を3次元物体検出器に組み込むには,局所的なオブジェクトレベルの空間支援を伴う同変特徴を抽出する機構が必要となる。
この目的を達成するために,回転同分散サスペンション設計による同変物体検出ネットワーク(eon)を提案する。
EONはVoteNetやPointRCNNのような現代のクラウドオブジェクト検出器に適用でき、シーンスケールの入力でオブジェクトの回転対称性を利用することができる。
屋内シーンと自律走行データセットの両方の実験により、EONの設計を既存の最先端の3Dオブジェクト検出器に接続することで、大幅な改善が得られた。
関連論文リスト
- Equivariant Spatio-Temporal Self-Supervision for LiDAR Object Detection [37.142470149311904]
本研究では,空間的および時間的拡張を両立させることにより,時間的同変学習の枠組みを提案する。
既存の等変および不変のアプローチを多くの設定で上回る3次元物体検出のための事前学習法を示す。
論文 参考訳(メタデータ) (2024-04-17T20:41:49Z) - FRED: Towards a Full Rotation-Equivariance in Aerial Image Object
Detection [28.47314201641291]
FRED(Fully Rotation-Equivariant Oriented Object Detector)を導入する。
提案手法は,DOTA-v1.0では同等の性能を示し,DOTA-v1.5では1.5mAP,モデルパラメータでは16%と大幅に低下する。
論文 参考訳(メタデータ) (2023-12-22T09:31:43Z) - ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - Evaluating 3D Shape Analysis Methods for Robustness to Rotation
Invariance [22.306775502181818]
本稿では,最近の3次元形状記述子のSO(3)回転に対する堅牢性について解析する。
物体が異なる方向で行われる3次元屋内シーンのデータベースを考察する。
論文 参考訳(メタデータ) (2023-05-29T18:39:31Z) - Group Equivariant BEV for 3D Object Detection [28.109682816379998]
3Dオブジェクト検出は注目され、実際の道路シナリオで継続的な改善が達成されている。
群同変理論に基づく群同変鳥眼ビューネットワーク(GeqBevNet)を提案する。
GeqBevNetは、実際の道路シーンの3Dオブジェクト検出において、より回転的な特徴を抽出することができる。
論文 参考訳(メタデータ) (2023-04-26T09:00:31Z) - Learning Object-level Point Augmentor for Semi-supervised 3D Object
Detection [85.170578641966]
半教師付き3次元オブジェクト検出のための局所変換を行うオブジェクトレベルポイント拡張器(OPA)を提案する。
このようにして、結果のオーグメンタは、無関係なバックグラウンドではなく、オブジェクトインスタンスを強調するように導出されます。
ScanNetとSUN RGB-Dデータセットの実験は、提案したOPAが最先端の手法に対して好適に動作することを示している。
論文 参考訳(メタデータ) (2022-12-19T06:56:14Z) - LocPoseNet: Robust Location Prior for Unseen Object Pose Estimation [69.70498875887611]
LocPoseNetは、見えないオブジェクトに先立って、ロバストにロケーションを学習することができる。
提案手法は,LINEMOD と GenMOP において,既存の作業よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-29T15:21:34Z) - Unsupervised Object Representation Learning using Translation and
Rotation Group Equivariant VAE [5.254093731341154]
TARGET-VAEは、トランスレーショナルおよびローテーショングループに等価な変分自動エンコーダフレームワークである。
TARGET-VAEは,従来の方法の病態を著しく改善し,回避する監督なしで,絡み合った表現を学習することを示す。
極めて正確な教師なしのポーズと位置推定を行うことができる。
論文 参考訳(メタデータ) (2022-10-24T02:08:19Z) - Delving into Localization Errors for Monocular 3D Object Detection [85.77319416168362]
単眼画像から3Dバウンディングボックスを推定することは、自動運転に不可欠な要素です。
本研究では, 各サブタスクがもたらす影響を定量化し, 局所化誤差を求めることが, モノクロ3次元検出の抑制に欠かせない要因である。
論文 参考訳(メタデータ) (2021-03-30T10:38:01Z) - SE(3)-Transformers: 3D Roto-Translation Equivariant Attention Networks [71.55002934935473]
連続的な3次元ロト変換の下で同変である3次元点雲とグラフに対する自己アテンションモジュールの変種であるSE(3)-Transformerを導入する。
我々は, 入力の回転下での予測の頑健性を示す, おもちゃのN体粒子シミュレーションデータセットを用いて, モデルの評価を行った。
論文 参考訳(メタデータ) (2020-06-18T13:23:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。