論文の概要: UnsupervisedR&R: Unsupervised Point Cloud Registration via
Differentiable Rendering
- arxiv url: http://arxiv.org/abs/2102.11870v1
- Date: Tue, 23 Feb 2021 18:59:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 13:57:35.386913
- Title: UnsupervisedR&R: Unsupervised Point Cloud Registration via
Differentiable Rendering
- Title(参考訳): UnsupervisedR&R:差分レンダリングによる無監視ポイントクラウド登録
- Authors: Mohamed El Banani, Luya Gao, Justin Johnson
- Abstract要約: UnsupervisedR&R: 生のRGB-Dビデオからポイントクラウド登録を学習するためのエンドツーエンドの非監視アプローチ。
屋内シーンのデータセットに対するアプローチを評価し,従来の手法を古典的,学習的な記述子で上回る結果を得た。
- 参考スコア(独自算出の注目度): 13.302501244655456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aligning partial views of a scene into a single whole is essential to
understanding one's environment and is a key component of numerous robotics
tasks such as SLAM and SfM. Recent approaches have proposed end-to-end systems
that can outperform traditional methods by leveraging pose supervision.
However, with the rising prevalence of cameras with depth sensors, we can
expect a new stream of raw RGB-D data without the annotations needed for
supervision. We propose UnsupervisedR&R: an end-to-end unsupervised approach to
learning point cloud registration from raw RGB-D video. The key idea is to
leverage differentiable alignment and rendering to enforce photometric and
geometric consistency between frames. We evaluate our approach on indoor scene
datasets and find that we outperform existing traditional approaches with
classic and learned descriptors while being competitive with supervised
geometric point cloud registration approaches.
- Abstract(参考訳): シーンの部分的なビューを1つの全体へアライメントすることは、環境を理解するために不可欠であり、SLAMやSfMのような多数のロボティクスタスクの重要なコンポーネントである。
近年のアプローチでは、ポーズ監視を活用して従来の手法より優れているエンドツーエンドシステムを提案する。
しかし、深度センサーを備えたカメラの普及により、監視に必要なアノテーションなしで、生のRGB-Dデータの新たなストリームが期待できます。
生RGB-Dビデオからポイントクラウド登録を学習するためのエンドツーエンドの非監視アプローチであるUnsupervisedR&Rを提案します。
重要なアイデアは、微分可能なアライメントとレンダリングを利用して、フレーム間のフォトメトリックと幾何学的一貫性を強制することだ。
屋内シーンデータセットに対するアプローチを評価し,従来の従来のアプローチを古典的・学習的ディスクリプタで上回りながら,幾何学的ポイントクラウド登録アプローチと競合していることを見出した。
関連論文リスト
- Deep Learning-Based Point Cloud Registration: A Comprehensive Survey and Taxonomy [79.66031973540946]
深層学習に基づくポイントクラウド登録(DL-PCR)に関する総合的な調査と分類について述べる。
DL-PCR法では,登録手続きを含む重要な側面から議論を整理する。
我々はこれらを,ポイント・ツー・ポイント対応の明示的な識別を必要とするかどうかに応じて,対応ベースおよび対応不要なアプローチに分類する。
論文 参考訳(メタデータ) (2024-04-22T02:05:15Z) - ViewNeRF: Unsupervised Viewpoint Estimation Using Category-Level Neural
Radiance Fields [35.89557494372891]
ニューラルラジアンス場に基づく視点推定法であるViewNeRFを導入する。
提案手法は,条件付きNeRFと視点予測器とシーンエンコーダを組み合わせた合成手法を用いて解析を行う。
本モデルでは,合成データセットと実データセットの競合結果を示す。
論文 参考訳(メタデータ) (2022-12-01T11:16:11Z) - Semantic keypoint extraction for scanned animals using
multi-depth-camera systems [2.513785998932353]
ポイントクラウドにおけるキーポイントアノテーションは、3D再構成、オブジェクト追跡、アライメントにおいて重要なタスクである。
農業の文脈では、家畜の自動化が条件評価や行動認識に向けて働くことが重要な課題である。
本稿では,キーポイント抽出を回帰問題として再構成することで,ポイントクラウドにおける意味キーポイントアノテーションの新たなアプローチを提案する。
本手法は,複数のハードウェア同期RGB-Dカメラの校正システムを用いて,移動牛のフィールドで収集したデータを用いて実験を行った。
論文 参考訳(メタデータ) (2022-11-16T03:06:17Z) - Unsupervised Multi-View Object Segmentation Using Radiance Field
Propagation [55.9577535403381]
本稿では,未ラベルのシーンの多視点画像のみを考慮し,再構成中の3次元オブジェクトのセグメント化に新たなアプローチを提案する。
提案手法の核となるのは,2方向光度損失を持つ個々の物体の放射界に対する新しい伝搬戦略である。
我々の知る限り、RFPはニューラルレイディアンスフィールド(NeRF)のための3次元シーンオブジェクトセグメンテーションに取り組むための最初の教師なしアプローチである。
論文 参考訳(メタデータ) (2022-10-02T11:14:23Z) - Learning Enriched Illuminants for Cross and Single Sensor Color
Constancy [182.4997117953705]
ネットワークをトレーニングするためのクロスセンサ自己教師型トレーニングを提案する。
センサに依存しない方法で人工発光体をランダムにサンプリングすることでネットワークを訓練する。
実験により、我々のクロスセンサモデルとシングルセンサーモデルは、他の最先端手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-03-21T15:45:35Z) - DSC: Deep Scan Context Descriptor for Large-Scale Place Recognition [4.878199122477076]
LiDARに基づく位置認識は、ループ閉鎖検出とグローバル再局在の両方において必須かつ困難な課題である。
本稿では,ポイントクラウドのセグメント間の関係をキャプチャする,汎用的で差別的なグローバル記述子であるDeep Scan Context (DSC)を提案する。
論文 参考訳(メタデータ) (2021-11-27T07:31:32Z) - UPDesc: Unsupervised Point Descriptor Learning for Robust Registration [54.95201961399334]
UPDescは、ロバストポイントクラウド登録のためのポイント記述子を学習するための教師なしの方法である。
学習した記述子は既存の教師なし手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2021-08-05T17:11:08Z) - Bootstrap Your Own Correspondences [15.715143016999695]
BYOCはRGB-Dビデオから視覚的特徴と幾何学的特徴を学習する自己教師型アプローチである。
屋内シーンのデータセットに対するアプローチを評価し,従来の記述子や学習した記述子よりも優れた手法であることが確認された。
論文 参考訳(メタデータ) (2021-06-01T17:59:08Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z) - Neural Ray Surfaces for Self-Supervised Learning of Depth and Ego-motion [51.19260542887099]
カメラモデルの事前知識を必要とせずに、自己超越を用いて正確な深度とエゴモーション推定を学習できることが示される。
Grossberg と Nayar の幾何学モデルにインスパイアされた我々は、ピクセルワイド射影線を表す畳み込みネットワークである Neural Ray Surfaces (NRS) を導入する。
本研究では,多種多様なカメラシステムを用いて得られた生ビデオから,視覚計測の自己教師付き学習と深度推定にNRSを用いることを実証する。
論文 参考訳(メタデータ) (2020-08-15T02:29:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。