論文の概要: SD-6DoF-ICLK: Sparse and Deep Inverse Compositional Lucas-Kanade
Algorithm on SE(3)
- arxiv url: http://arxiv.org/abs/2103.16528v1
- Date: Tue, 30 Mar 2021 17:31:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 14:38:41.020109
- Title: SD-6DoF-ICLK: Sparse and Deep Inverse Compositional Lucas-Kanade
Algorithm on SE(3)
- Title(参考訳): SD-6DoF-ICLK:SE(3)上のスパースおよびディープ逆合成ルーカスカネードアルゴリズム
- Authors: Timo Hinzmann, Roland Siegwart
- Abstract要約: 本稿では,SD-6DoF-ICLK(Inverse Compositional Lucas-Kanade)パイプラインを提案する。
スパース深度情報を使用して、SE(3)上の2つの画像を最良に整列する相対的なポーズを最適化する。
レンダリング画像による実験では、前方のSD-6DoF-ICLKは画像ペアあたり145msで、解像度は752 x 480ピクセルである。
- 参考スコア(独自算出の注目度): 34.7120626795373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces SD-6DoF-ICLK, a learning-based Inverse Compositional
Lucas-Kanade (ICLK) pipeline that uses sparse depth information to optimize the
relative pose that best aligns two images on SE(3). To compute this six
Degrees-of-Freedom (DoF) relative transformation, the proposed formulation
requires only sparse depth information in one of the images, which is often the
only available depth source in visual-inertial odometry or Simultaneous
Localization and Mapping (SLAM) pipelines. In an optional subsequent step, the
framework further refines feature locations and the relative pose using
individual feature alignment and bundle adjustment for pose and structure
re-alignment. The resulting sparse point correspondences with subpixel-accuracy
and refined relative pose can be used for depth map generation, or the image
alignment module can be embedded in an odometry or mapping framework.
Experiments with rendered imagery show that the forward SD-6DoF-ICLK runs at
145 ms per image pair with a resolution of 752 x 480 pixels each, and vastly
outperforms the classical, sparse 6DoF-ICLK algorithm, making it the ideal
framework for robust image alignment under severe conditions.
- Abstract(参考訳): SD-6DoF-ICLK(Inverse Compositional Lucas-Kanade:逆合成ルーカス・カナード)パイプラインは,2枚の画像がSE(3)上に最もよく配向する相対的なポーズを最適化するために,スパース深度情報を利用する。
この6自由度(dof)相対変換を計算するために、提案された定式化では画像の1つにスパース深度情報しか必要とせず、これは視覚慣性オドメトリや同時局在マッピング(slam)パイプラインでのみ使用可能な深さ源であることが多い。
オプションの次のステップでは、個々の機能アライメントとバンドルによるポーズと構造の再調整を使用して、機能の位置と相対的なポーズをさらに洗練する。
サブピクセル精度と精細な相対ポーズによるスパースポイント対応は、深度マップ生成に利用でき、画像アライメントモジュールは、オドメトリーまたはマッピングフレームワークに組み込むことができる。
レンダリング画像を用いた実験では、前方のSD-6DoF-ICLKは解像度752×480ピクセルのイメージ対あたり145msで動作し、古典的でスパースな6DoF-ICLKアルゴリズムよりも大幅に優れており、厳しい条件下での堅牢な画像アライメントのための理想的なフレームワークとなっている。
関連論文リスト
- Correspondence-Guided SfM-Free 3D Gaussian Splatting for NVS [52.3215552448623]
SfM(Structure-from-Motion)事前処理カメラのポーズのない新しいビュー合成(NVS)は、迅速な応答能力の向上と、可変動作条件に対する堅牢性の向上に不可欠である。
最近のSfMフリー手法は、ポーズ最適化を統合し、共同カメラのポーズ推定とNVSのためのエンドツーエンドフレームワークを設計している。
既存の作業の多くは、L2損失のようなピクセル単位の画像損失関数に依存している。
本研究では,NVSのためのSfMフリー3次元ガウススプラッティングを提案する。
論文 参考訳(メタデータ) (2024-08-16T13:11:22Z) - RelPose++: Recovering 6D Poses from Sparse-view Observations [66.6922660401558]
スパースビュー画像集合(2-8画像)から6次元カメラポーズを推定する作業に対処する。
我々は,画像対上の相対回転よりも分布を推定するネットワークを学習するRelPoseフレームワークを構築した。
最終システムは,先行技術よりも6次元ポーズ予測を大幅に改善する。
論文 参考訳(メタデータ) (2023-05-08T17:59:58Z) - CyberLoc: Towards Accurate Long-term Visual Localization [14.883028430847714]
CyberLocは画像ベースの視覚的ローカライゼーションパイプラインで、困難な条件下での堅牢で正確な長期推定を行う。
マッピングモジュールを適用して、異なる条件下で複数のシーケンスが存在する場合、各参照シーケンスの1つのマップであるシーンの正確な3Dマップを構築する。
単一画像ベースのローカライゼーションパイプラインを実行し、クエリ画像毎に6-DoFカメラのポーズを推定する。
論文 参考訳(メタデータ) (2023-01-06T06:49:36Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - SO-Pose: Exploiting Self-Occlusion for Direct 6D Pose Estimation [98.83762558394345]
SO-Poseは、オブジェクトの6自由度(6DoF)をすべて、単一のRGBイメージから散らばった環境でポーズさせるフレームワークである。
本稿では,3次元オブジェクトの2層表現を確立するために,自己閉塞に関する新たな推論を導入する。
対応性,自己閉塞性,6次元ポーズを整列する層間合成により,精度とロバスト性をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-08-18T19:49:29Z) - RePOSE: Real-Time Iterative Rendering and Refinement for 6D Object Pose
Estimation [38.05609071384776]
Iterative pose refinementは、6Dオブジェクトのポーズ推定のための重要な処理ステップである。
CNNベースの画像表現は、ポーズの洗練に使用する計算コストが高い。
レンダリングされたRGB画像から画像特徴を抽出するためにCNNを使う代わりに、より深い特徴画像を直接描画することを提案する。
本手法は6D POSE推定のためのリアルタイム反復レンダリング・リファインメントアルゴリズムであるRePOSEと呼ばれる。
論文 参考訳(メタデータ) (2021-04-01T17:26:54Z) - Deep Two-View Structure-from-Motion Revisited [83.93809929963969]
2次元構造移動(SfM)は3次元再構成と視覚SLAMの基礎となる。
古典パイプラインの適切性を活用することで,深部2視点sfmの問題を再検討することを提案する。
本手法は,1)2つのフレーム間の密対応を予測する光フロー推定ネットワーク,2)2次元光フロー対応から相対カメラポーズを計算する正規化ポーズ推定モジュール,3)エピポーラ幾何を利用して探索空間を縮小し,密対応を洗練し,相対深度マップを推定するスケール不変深さ推定ネットワークからなる。
論文 参考訳(メタデータ) (2021-04-01T15:31:20Z) - RidgeSfM: Structure from Motion via Robust Pairwise Matching Under Depth
Uncertainty [9.480212602202519]
本研究では,屋内シーンの画像集合に対して,密集深度マップとカメラのポーズを同時に推定することの問題点を考察する。
RidgeSfMは数百のフレームをまとめることができる。
論文 参考訳(メタデータ) (2020-11-20T11:59:20Z) - Deep-Geometric 6 DoF Localization from a Single Image in Topo-metric
Maps [39.05304338751328]
本稿では,1枚の画像から全6自由度(DoF)グローバルポーズを推定できるDeep-Geometric Localizerについて述べる。
本手法は, マッピングアルゴリズムと局所化アルゴリズム(ステレオとモノ)を分離し, 予めマッピングした環境下での正確な6自由度ポーズ推定を可能にする。
携帯電話やドローンなどの単一カメラデバイスでのVR/ARとローカライズアプリケーションにより、私たちのハイブリッドアルゴリズムは、完全なDeep-LearningベースのPose-Netと比較できる。
論文 参考訳(メタデータ) (2020-02-04T10:11:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。