論文の概要: A Pose-only Solution to Visual Reconstruction and Navigation
- arxiv url: http://arxiv.org/abs/2103.01530v1
- Date: Tue, 2 Mar 2021 07:21:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:03:31.681846
- Title: A Pose-only Solution to Visual Reconstruction and Navigation
- Title(参考訳): 視覚的再構成とナビゲーションのためのポースオンリーソリューション
- Authors: Qi Cai, Lilian Zhang, Yuanxin Wu, Wenxian Yu, Dewen Hu
- Abstract要約: 大規模なシーンやクリティカルなカメラの動きは、この目標を達成するために研究コミュニティが直面する大きな課題です。
私たちは、これらの課題を解決できるポーズオンリーのイメージングジオメトリフレームワークとアルゴリズムを立ち上げました。
- 参考スコア(独自算出の注目度): 23.86386627769292
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual navigation and three-dimensional (3D) scene reconstruction are
essential for robotics to interact with the surrounding environment.
Large-scale scenes and critical camera motions are great challenges facing the
research community to achieve this goal. We raised a pose-only imaging geometry
framework and algorithms that can help solve these challenges. The
representation is a linear function of camera global translations, which allows
for efficient and robust camera motion estimation. As a result, the spatial
feature coordinates can be analytically reconstructed and do not require
nonlinear optimization. Experiments demonstrate that the computational
efficiency of recovering the scene and associated camera poses is significantly
improved by 2-4 orders of magnitude. This solution might be promising to unlock
real-time 3D visual computing in many forefront applications.
- Abstract(参考訳): ロボットが周囲の環境と対話するためには,視覚ナビゲーションと3次元シーン再構成が不可欠である。
大規模なシーンやクリティカルなカメラの動きは、この目標を達成するために研究コミュニティが直面する大きな課題です。
私たちは、これらの課題を解決できるポーズオンリーのイメージングジオメトリフレームワークとアルゴリズムを立ち上げました。
この表現はカメラグローバル翻訳の線形関数であり、効率的で堅牢なカメラモーション推定を可能にする。
その結果、空間的特徴座標は解析的に再構成でき、非線形最適化を必要としない。
実験により,シーンの復元と関連するカメラポーズの計算効率が2~4桁向上することを示した。
このソリューションは、多くのフォアフロントアプリケーションでリアルタイムの3Dビジュアルコンピューティングをアンロックすることを約束するかもしれない。
関連論文リスト
- DUSt3R: Geometric 3D Vision Made Easy [9.088432378237606]
Dense and Unconstrained Stereo 3D Reconstruction of arbitrary image collections。
本定式化は単眼および両眼の再建症例を円滑に統一することを示す。
私たちの定式化はシーンの3Dモデルと深度情報を直接提供しますが、興味深いことに、シームレスに回復できます。
論文 参考訳(メタデータ) (2023-12-21T18:52:14Z) - R3D3: Dense 3D Reconstruction of Dynamic Scenes from Multiple Cameras [106.52409577316389]
R3D3は高密度3次元再構成とエゴモーション推定のためのマルチカメラシステムである。
提案手法は,複数のカメラからの時空間情報と単眼深度補正を利用する。
この設計により、困難で動的な屋外環境の密集した一貫した3次元再構成が可能になる。
論文 参考訳(メタデータ) (2023-08-28T17:13:49Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - Lazy Visual Localization via Motion Averaging [89.8709956317671]
本研究では,データベースからシーンを再構築することなく,高精度なローカライゼーションを実現することができることを示す。
実験の結果、我々の視覚的ローカライゼーションの提案であるLazyLocは、最先端の構造に基づく手法に対して同等のパフォーマンスを実現していることがわかった。
論文 参考訳(メタデータ) (2023-07-19T13:40:45Z) - Towards Scalable Multi-View Reconstruction of Geometry and Materials [27.660389147094715]
本稿では,3次元シーンのカメラポーズ,オブジェクト形状,空間変化の両方向反射分布関数(svBRDF)のジョイントリカバリ手法を提案する。
入力は高解像度のRGBD画像であり、アクティブ照明用の点灯付き携帯型ハンドヘルドキャプチャシステムによってキャプチャされる。
論文 参考訳(メタデータ) (2023-06-06T15:07:39Z) - A Critical Analysis of Image-based Camera Pose Estimation Techniques [18.566761146552537]
カメラのローカライゼーションは、自律運転、ロボットナビゲーション、拡張現実(AR)など、多くのコンピュータビジョン分野に恩恵をもたらす可能性がある
本調査では,まず,異なるサブタスクに応じて,カメラのローカライゼーションポーズの特定の適用領域と評価指標を紹介する。
論文 参考訳(メタデータ) (2022-01-15T09:57:45Z) - Towards Non-Line-of-Sight Photography [48.491977359971855]
非視線イメージング(NLOS)は、隠された物体からの多重バウンス間接反射を捉えることに基づいている。
アクティブなNLOSイメージングシステムは、シーンを通しての光の飛行時間の捕捉に依存している。
我々はNLOS写真と呼ばれる新しい問題定式化を提案し、この欠陥に特に対処する。
論文 参考訳(メタデータ) (2021-09-16T08:07:13Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - Learning Pose-invariant 3D Object Reconstruction from Single-view Images [61.98279201609436]
本稿では,単視点画像のみから3次元形状を学習する,より現実的な構成について検討する。
最大の難しさは、単一のビューイメージが提供できる制約の不足にある。
本稿では, 対角コンパクトな形状空間を学習するために, 効果的な対角領域混同法を提案する。
論文 参考訳(メタデータ) (2020-04-03T02:47:35Z) - Learning Precise 3D Manipulation from Multiple Uncalibrated Cameras [13.24490469380487]
本稿では,3次元な精密な操作タスクをエンド・ツー・エンドで学習するための効果的なマルチビュー手法を提案する。
提案手法は,ポイントクラウドやボクセルグリッドのような明示的な3D表現を構築することなく,静的に配置された複数のRGBカメラビューを用いて,これらのタスクを達成できることを学習する。
論文 参考訳(メタデータ) (2020-02-21T03:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。