論文の概要: 6D Camera Relocalization in Visually Ambiguous Extreme Environments
- arxiv url: http://arxiv.org/abs/2207.06333v1
- Date: Wed, 13 Jul 2022 16:40:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 15:02:21.993861
- Title: 6D Camera Relocalization in Visually Ambiguous Extreme Environments
- Title(参考訳): 視覚異常極端環境における6次元カメラ再配置
- Authors: Yang Zheng, Tolga Birdal, Fei Xia, Yanchao Yang, Yueqi Duan, Leonidas
J. Guibas
- Abstract要約: 本研究では,深海や地球外地形などの極端な環境下で得られた画像の列から,カメラのポーズを確実に推定する手法を提案する。
本手法は,室内ベンチマーク (7-Scenes データセット) における最先端手法と同等の性能を20%のトレーニングデータで達成する。
- 参考スコア(独自算出の注目度): 79.68352435957266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel method to reliably estimate the pose of a camera given a
sequence of images acquired in extreme environments such as deep seas or
extraterrestrial terrains. Data acquired under these challenging conditions are
corrupted by textureless surfaces, image degradation, and presence of
repetitive and highly ambiguous structures. When naively deployed, the
state-of-the-art methods can fail in those scenarios as confirmed by our
empirical analysis. In this paper, we attempt to make camera relocalization
work in these extreme situations. To this end, we propose: (i) a hierarchical
localization system, where we leverage temporal information and (ii) a novel
environment-aware image enhancement method to boost the robustness and
accuracy. Our extensive experimental results demonstrate superior performance
in favor of our method under two extreme settings: localizing an autonomous
underwater vehicle and localizing a planetary rover in a Mars-like desert. In
addition, our method achieves comparable performance with state-of-the-art
methods on the indoor benchmark (7-Scenes dataset) using only 20% training
data.
- Abstract(参考訳): 本研究では,深海や地球外地形などの極端な環境下で得られた画像の列から,カメラのポーズを確実に推定する手法を提案する。
これらの困難な条件下で取得されたデータは、テクスチャのない表面、画像劣化、繰り返しかつ非常にあいまいな構造の存在によって破壊される。
ナレーションを施すと、実験分析で確認したように、最先端の手法がこれらのシナリオで失敗する可能性がある。
本稿では,このような極端な状況下でカメラの再局在化を実現することを試みる。
この目的のために提案します
(i)時間的情報を活用した階層的局所化システム
(ii)堅牢性と精度を高めるための新しい環境対応画像強調法。
火星のような砂漠に自律的な水中探査機を配置し、惑星ローバーを配置するという2つの極端な設定で、我々の手法は優れた性能を示しました。
さらに,20%のトレーニングデータを用いて,室内ベンチマーク (7-scenesデータセット) における最先端手法と同等の性能を実現する。
関連論文リスト
- Cameras as Rays: Pose Estimation via Ray Diffusion [57.32374715650491]
カメラのポーズを推定することは3D再構築の基本的な課題であり、まばらな視点では依然として挑戦的である。
本稿では,カメラを光束として扱うカメラポーズの分散表現を提案する。
提案手法は回帰法と拡散法の両方で,CO3Dのカメラポーズ推定における最先端性能を示す。
論文 参考訳(メタデータ) (2024-02-22T18:59:56Z) - LROC-PANGU-GAN: Closing the Simulation Gap in Learning Crater
Segmentation with Planetary Simulators [5.667566032625522]
外国の惑星体への探査機の着陸は、危険を確実に識別し、避けることが重要である。
この問題に対するディープラーニングの最近の応用は有望な結果を示している。
しかしながら、これらのモデルは、注釈付きデータセットに対する明確な監督によってしばしば学習される。
本稿では,ラベルの忠実さを維持しつつ,この「現実主義」のギャップを埋めるシステムを提案する。
論文 参考訳(メタデータ) (2023-10-04T12:52:38Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - Render-and-Compare: Cross-View 6 DoF Localization from Noisy Prior [12.829289906845055]
本研究では,従来の地上レベルの設定を超えて,空中から地上へのクロスビューのローカライゼーションを活用することを提案する。
研究対象の公開データセットは存在しないため、スマートフォンやドローンからのさまざまなクロスビュー画像を提供する新しいデータセットを収集します。
そこで我々は,検索画像の地味なポーズを半自動で取得するシステムを開発した。
論文 参考訳(メタデータ) (2023-02-13T11:43:47Z) - High Dynamic Range and Super-Resolution from Raw Image Bursts [52.341483902624006]
本稿では,露光ブラケット付きハンドヘルドカメラで撮影した原写真からの高解像度・高ダイナミックレンジカラー画像の再構成について紹介する。
提案アルゴリズムは,画像復元における最先端の学習手法と比較して,メモリ要求の少ない高速なアルゴリズムである。
実験では、ハンドヘルドカメラで野生で撮影された実際の写真に最大4ドル(約4,800円)の超高解像度な要素で優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-29T13:31:28Z) - Towards Robust Monocular Visual Odometry for Flying Robots on Planetary
Missions [49.79068659889639]
火星に着陸したばかりのIngenuityは、トラバーサビリティの影響を受けない新時代の探検の始まりとなるでしょう。
高速な光フロートラッキングを用いた高能率単分子オードメトリーアルゴリズムを提案する。
また、相対翻訳情報行列の主成分分析に基づいて、スケールドリフトの現在のリスクを推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-12T12:52:20Z) - CrowdDriven: A New Challenging Dataset for Outdoor Visual Localization [44.97567243883994]
クラウドソースデータを用いた屋外シーンにおける視覚的位置推定のための新しいベンチマークを提案する。
私たちのデータセットは非常に困難で、評価されたすべてのメソッドが最も難しい部分で失敗していることが示されています。
データセットリリースの一部として、私たちはそれを生成するために使用されるツールを提供し、効率的で効果的な2D対応アノテーションを可能にします。
論文 参考訳(メタデータ) (2021-09-09T19:25:48Z) - DeepURL: Deep Pose Estimation Framework for Underwater Relative
Localization [21.096166727043077]
本研究では,自律型水中車両(AUV)の6次元相対姿勢を1つの画像から決定するためのリアルタイム深層学習手法を提案する。
画像間翻訳ネットワークを用いて、レンダリングされた実画像間のギャップを埋めて、トレーニング用合成画像を生成する。
論文 参考訳(メタデータ) (2020-03-11T21:11:05Z) - Unlimited Resolution Image Generation with R2D2-GANs [69.90258455164513]
本稿では,任意の解像度の高品質な画像を生成するための新しいシミュレーション手法を提案する。
この方法では、フル長のミッション中に収集したソナースキャンと同等の大きさのソナースキャンを合成することができる。
生成されたデータは、連続的で、現実的に見え、また、取得の実際の速度の少なくとも2倍の速さで生成される。
論文 参考訳(メタデータ) (2020-03-02T17:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。