論文の概要: 6D Camera Relocalization in Visually Ambiguous Extreme Environments
- arxiv url: http://arxiv.org/abs/2207.06333v1
- Date: Wed, 13 Jul 2022 16:40:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 15:02:21.993861
- Title: 6D Camera Relocalization in Visually Ambiguous Extreme Environments
- Title(参考訳): 視覚異常極端環境における6次元カメラ再配置
- Authors: Yang Zheng, Tolga Birdal, Fei Xia, Yanchao Yang, Yueqi Duan, Leonidas
J. Guibas
- Abstract要約: 本研究では,深海や地球外地形などの極端な環境下で得られた画像の列から,カメラのポーズを確実に推定する手法を提案する。
本手法は,室内ベンチマーク (7-Scenes データセット) における最先端手法と同等の性能を20%のトレーニングデータで達成する。
- 参考スコア(独自算出の注目度): 79.68352435957266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel method to reliably estimate the pose of a camera given a
sequence of images acquired in extreme environments such as deep seas or
extraterrestrial terrains. Data acquired under these challenging conditions are
corrupted by textureless surfaces, image degradation, and presence of
repetitive and highly ambiguous structures. When naively deployed, the
state-of-the-art methods can fail in those scenarios as confirmed by our
empirical analysis. In this paper, we attempt to make camera relocalization
work in these extreme situations. To this end, we propose: (i) a hierarchical
localization system, where we leverage temporal information and (ii) a novel
environment-aware image enhancement method to boost the robustness and
accuracy. Our extensive experimental results demonstrate superior performance
in favor of our method under two extreme settings: localizing an autonomous
underwater vehicle and localizing a planetary rover in a Mars-like desert. In
addition, our method achieves comparable performance with state-of-the-art
methods on the indoor benchmark (7-Scenes dataset) using only 20% training
data.
- Abstract(参考訳): 本研究では,深海や地球外地形などの極端な環境下で得られた画像の列から,カメラのポーズを確実に推定する手法を提案する。
これらの困難な条件下で取得されたデータは、テクスチャのない表面、画像劣化、繰り返しかつ非常にあいまいな構造の存在によって破壊される。
ナレーションを施すと、実験分析で確認したように、最先端の手法がこれらのシナリオで失敗する可能性がある。
本稿では,このような極端な状況下でカメラの再局在化を実現することを試みる。
この目的のために提案します
(i)時間的情報を活用した階層的局所化システム
(ii)堅牢性と精度を高めるための新しい環境対応画像強調法。
火星のような砂漠に自律的な水中探査機を配置し、惑星ローバーを配置するという2つの極端な設定で、我々の手法は優れた性能を示しました。
さらに,20%のトレーニングデータを用いて,室内ベンチマーク (7-scenesデータセット) における最先端手法と同等の性能を実現する。
関連論文リスト
- Pose Estimation from Camera Images for Underwater Inspection [0.0]
ビジュアルローカライゼーションは慣性ナビゲーションシステムに代わる費用対効果がある。
画像からの機械学習によるポーズ推定は,水中環境において有望であることを示す。
我々は、新しいビュー合成モデルを用いて、探索されていない地域でのポーズ推定を大幅に強化し、強化されたトレーニングデータを生成する。
論文 参考訳(メタデータ) (2024-07-24T03:00:53Z) - SG-NeRF: Neural Surface Reconstruction with Scene Graph Optimization [16.460851701725392]
本稿では,外乱ポーズの影響を軽減するため,シーングラフを用いた放射場最適化手法を提案する。
本手法では,シーングラフに基づく適応型不整合・不整合信頼度推定手法を取り入れた。
また、カメラのポーズと表面形状を最適化するために、効果的な交叉結合(IoU)損失を導入する。
論文 参考訳(メタデータ) (2024-07-17T15:50:17Z) - Cameras as Rays: Pose Estimation via Ray Diffusion [54.098613859015856]
カメラのポーズを推定することは3D再構成の基本的な課題であり、まばらにサンプリングされたビューを考えると依然として困難である。
本稿では,カメラを光束として扱うカメラポーズの分散表現を提案する。
提案手法は回帰法と拡散法の両方で,CO3Dのカメラポーズ推定における最先端性能を示す。
論文 参考訳(メタデータ) (2024-02-22T18:59:56Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - A ground-based dataset and a diffusion model for on-orbit low-light image enhancement [7.815138548685792]
軌道上低光画像強調(LLIE)のためのバイドゥナビゲーション衛星のデータセットを提案する。
衝突することなく異なる方向と距離のポーズを均一にサンプリングするために、衝突のない作業空間と階層化サンプリングのポーズを提案する。
余剰露光や細部をぼかすことなく画像のコントラストを高めるために,構造と暗黒領域を強調するために,融合した注意を設計する。
論文 参考訳(メタデータ) (2023-06-25T12:15:44Z) - Render-and-Compare: Cross-View 6 DoF Localization from Noisy Prior [17.08552155321949]
本研究では,従来の地上レベルの設定を超えて,空中から地上へのクロスビューのローカライゼーションを活用することを提案する。
研究対象の公開データセットは存在しないため、スマートフォンやドローンからのさまざまなクロスビュー画像を提供する新しいデータセットを収集します。
そこで我々は,検索画像の地味なポーズを半自動で取得するシステムを開発した。
論文 参考訳(メタデータ) (2023-02-13T11:43:47Z) - High Dynamic Range and Super-Resolution from Raw Image Bursts [52.341483902624006]
本稿では,露光ブラケット付きハンドヘルドカメラで撮影した原写真からの高解像度・高ダイナミックレンジカラー画像の再構成について紹介する。
提案アルゴリズムは,画像復元における最先端の学習手法と比較して,メモリ要求の少ない高速なアルゴリズムである。
実験では、ハンドヘルドカメラで野生で撮影された実際の写真に最大4ドル(約4,800円)の超高解像度な要素で優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-29T13:31:28Z) - Towards Robust Monocular Visual Odometry for Flying Robots on Planetary
Missions [49.79068659889639]
火星に着陸したばかりのIngenuityは、トラバーサビリティの影響を受けない新時代の探検の始まりとなるでしょう。
高速な光フロートラッキングを用いた高能率単分子オードメトリーアルゴリズムを提案する。
また、相対翻訳情報行列の主成分分析に基づいて、スケールドリフトの現在のリスクを推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-12T12:52:20Z) - Unlimited Resolution Image Generation with R2D2-GANs [69.90258455164513]
本稿では,任意の解像度の高品質な画像を生成するための新しいシミュレーション手法を提案する。
この方法では、フル長のミッション中に収集したソナースキャンと同等の大きさのソナースキャンを合成することができる。
生成されたデータは、連続的で、現実的に見え、また、取得の実際の速度の少なくとも2倍の速さで生成される。
論文 参考訳(メタデータ) (2020-03-02T17:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。