論文の概要: 3D Meta-Registration: Learning to Learn Registration of 3D Point Clouds
- arxiv url: http://arxiv.org/abs/2010.11504v1
- Date: Thu, 22 Oct 2020 07:45:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 07:00:48.520965
- Title: 3D Meta-Registration: Learning to Learn Registration of 3D Point Clouds
- Title(参考訳): 3Dメタ登録:3Dポイントクラウドの登録を学習する
- Authors: Lingjing Wang, Yu Hao, Xiang Li, Yi Fang
- Abstract要約: 3D Meta-Registrationは、目に見えない3Dポイントクラウドのための新しい3D登録タスクに迅速に適応し、適切に一般化することができる。
我々は,合成データセット ModelNet と FlyingThings3D と実世界のデータセット KITTI を用いて実験を行った。
- 参考スコア(独自算出の注目度): 16.073358454663225
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Deep learning-based point cloud registration models are often generalized
from extensive training over a large volume of data to learn the ability to
predict the desired geometric transformation to register 3D point clouds. In
this paper, we propose a meta-learning based 3D registration model, named 3D
Meta-Registration, that is capable of rapidly adapting and well generalizing to
new 3D registration tasks for unseen 3D point clouds. Our 3D Meta-Registration
gains a competitive advantage by training over a variety of 3D registration
tasks, which leads to an optimized model for the best performance on the
distribution of registration tasks including potentially unseen tasks.
Specifically, the proposed 3D Meta-Registration model consists of two modules:
3D registration learner and 3D registration meta-learner. During the training,
the 3D registration learner is trained to complete a specific registration task
aiming to determine the desired geometric transformation that aligns the source
point cloud with the target one. In the meantime, the 3D registration
meta-learner is trained to provide the optimal parameters to update the 3D
registration learner based on the learned task distribution. After training,
the 3D registration meta-learner, which is learned with the optimized coverage
of distribution of 3D registration tasks, is able to dynamically update 3D
registration learners with desired parameters to rapidly adapt to new
registration tasks. We tested our model on synthesized dataset ModelNet and
FlyingThings3D, as well as real-world dataset KITTI. Experimental results
demonstrate that 3D Meta-Registration achieves superior performance over other
previous techniques (e.g. FlowNet3D).
- Abstract(参考訳): ディープラーニングベースのポイントクラウド登録モデルは、大量のデータに対する広範なトレーニングから一般化され、3Dポイントクラウドを登録するために望まれる幾何学的変換を予測する能力を学ぶ。
本稿では,未発見の3dポイントクラウドに対して,新しい3d登録タスクを迅速に適応し,うまく一般化することのできる,メタラーニングに基づく3d登録モデルである3dメタ登録モデルを提案する。
私たちの3dメタ登録は、さまざまな3d登録タスクをトレーニングすることで、競争上の優位性を得ます。
具体的には,提案した3Dメタ登録モデルは,3D登録学習者と3D登録メタラーナーの2つのモジュールから構成される。
トレーニング中、3d登録学習者は、ソースポイントクラウドとターゲットクラウドとを整合させる所望の幾何学的変換を決定するための特定の登録タスクを完了するように訓練される。
一方、学習課題分布に基づいて、3D登録学習者を更新するための最適なパラメータを提供するために、3D登録メタラーナーを訓練する。
トレーニング後の3D登録メタラーナーは、3D登録タスクの分布を最適化して学習し、動的に3D登録学習者を望ましいパラメータで更新し、新しい登録タスクに迅速に適応させることができる。
我々は,合成データセット ModelNet と FlyingThings3D と実世界のデータセット KITTI を用いて実験を行った。
実験により,3次元メタレジストレーションは従来の技術(FlowNet3Dなど)よりも優れた性能を発揮することが示された。
関連論文リスト
- P3P: Pseudo-3D Pre-training for Scaling 3D Masked Autoencoders [32.85484320025852]
本研究では,画像から持ち上げた実データと擬似3Dデータを利用した自己教師付き事前学習フレームワークを,大深度推定モデルにより提案する。
提案手法は,3次元分類および少数ショット学習における最先端性能を高い事前学習と下流微調整効率を維持しながら達成する。
論文 参考訳(メタデータ) (2024-08-19T13:59:53Z) - Cross-Modal Self-Training: Aligning Images and Pointclouds to Learn Classification without Labels [69.55622471172941]
CLIPのような大規模ビジョン2D視覚言語モデルは、一般化可能な(オープン語彙)3D視覚モデルを学ぶために3Dエンコーダと整列することができる。
ゼロショット3Dビジョンモデルのラベルなし分類性能を改善するために、クロスモーダル自己訓練(Cross-MoST: Cross-Modal Self-Training)を提案する。
論文 参考訳(メタデータ) (2024-04-15T21:30:50Z) - AutoSynth: Learning to Generate 3D Training Data for Object Point Cloud
Registration [69.21282992341007]
Auto Synthは、ポイントクラウド登録のための3Dトレーニングデータを自動的に生成する。
私たちはポイントクラウド登録ネットワークをもっと小さなサロゲートネットワークに置き換え、4056.43$のスピードアップを実現しました。
TUD-L,LINEMOD,Occluded-LINEMODに関する我々の研究結果は,検索データセットでトレーニングされたニューラルネットワークが,広く使用されているModelNet40データセットでトレーニングされたニューラルネットワークよりも一貫してパフォーマンスが向上していることを示す。
論文 参考訳(メタデータ) (2023-09-20T09:29:44Z) - Self-supervised Learning of Rotation-invariant 3D Point Set Features using Transformer and its Self-distillation [3.1652399282742536]
本稿では,オブジェクトレベルでの高精度かつ回転不変な3次元点集合特徴を取得するための,自己教師付き学習フレームワークを提案する。
トークンを改良し,それを3次元点集合ごとに表現的回転不変の特徴に集約するために,自己認識機構を用いる。
提案アルゴリズムは,既存のアルゴリズムよりも高精度な回転不変の3次元点集合特徴を学習する。
論文 参考訳(メタデータ) (2023-08-09T06:03:07Z) - Video Pretraining Advances 3D Deep Learning on Chest CT Tasks [63.879848037679224]
大規模自然画像分類データセットの事前学習は、データスカース2D医療タスクのモデル開発に役立っている。
これらの2Dモデルは、3Dコンピュータビジョンベンチマークで3Dモデルに勝っている。
3Dモデルのためのビデオ事前トレーニングにより、より小さなデータセットでより高性能な3D医療タスクを実現することができることを示す。
論文 参考訳(メタデータ) (2023-04-02T14:46:58Z) - Data Efficient 3D Learner via Knowledge Transferred from 2D Model [30.077342050473515]
我々は、RGB-D画像を介して強力な2Dモデルから知識を伝達することで、3Dタスクのデータ不足に対処する。
擬似ラベルを用いたRGB-D画像の強化には,2次元画像の強いセマンティック・セマンティック・セマンティック・セマンティック・セマンティクス・モデルを用いる。
提案手法は,3次元ラベルの効率向上に適した既存の最先端技術よりも優れている。
論文 参考訳(メタデータ) (2022-03-16T09:14:44Z) - 3D-to-2D Distillation for Indoor Scene Parsing [78.36781565047656]
大規模3次元データリポジトリから抽出した3次元特徴を有効活用し,RGB画像から抽出した2次元特徴を向上する手法を提案する。
まず,事前学習した3Dネットワークから3D知識を抽出して2Dネットワークを監督し,トレーニング中の2D特徴からシミュレーションされた3D特徴を学習する。
次に,2次元の正規化方式を設計し,2次元特徴と3次元特徴のキャリブレーションを行った。
第3に,非ペアの3dデータを用いたトレーニングのフレームワークを拡張するために,意味を意識した対向的トレーニングモデルを設計した。
論文 参考訳(メタデータ) (2021-04-06T02:22:24Z) - Interactive Annotation of 3D Object Geometry using 2D Scribbles [84.51514043814066]
本稿では,ポイントクラウドデータとRGB画像から3次元オブジェクト形状をアノテートする対話型フレームワークを提案する。
当社のフレームワークは,芸術的,グラフィック的専門知識のないナイーブユーザを対象としている。
論文 参考訳(メタデータ) (2020-08-24T21:51:29Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。