論文の概要: CROSSFIRE: Camera Relocalization On Self-Supervised Features from an
Implicit Representation
- arxiv url: http://arxiv.org/abs/2303.04869v2
- Date: Tue, 22 Aug 2023 09:21:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 21:22:57.182960
- Title: CROSSFIRE: Camera Relocalization On Self-Supervised Features from an
Implicit Representation
- Title(参考訳): CROSSFIRE: 意図しない表現による自己監督された特徴のカメラリローカライズ
- Authors: Arthur Moreau, Nathan Piasco, Moussab Bennehar, Dzmitry Tsishkou,
Bogdan Stanciulescu, Arnaud de La Fortelle
- Abstract要約: 我々は,あるシーンの暗黙の地図としてニューラル・ラジアンス・フィールドを使用し,この表現に適したカメラ再配置を提案する。
提案手法は,ナビゲーション中に1台のRGBカメラを用いて,デバイスの正確な位置をリアルタイムで計算することができる。
- 参考スコア(独自算出の注目度): 3.565151496245487
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Beyond novel view synthesis, Neural Radiance Fields are useful for
applications that interact with the real world. In this paper, we use them as
an implicit map of a given scene and propose a camera relocalization algorithm
tailored for this representation. The proposed method enables to compute in
real-time the precise position of a device using a single RGB camera, during
its navigation. In contrast with previous work, we do not rely on pose
regression or photometric alignment but rather use dense local features
obtained through volumetric rendering which are specialized on the scene with a
self-supervised objective. As a result, our algorithm is more accurate than
competitors, able to operate in dynamic outdoor environments with changing
lightning conditions and can be readily integrated in any volumetric neural
renderer.
- Abstract(参考訳): ニューラル・ラジアンス・フィールドは、新しいビュー合成以外にも、現実世界と相互作用するアプリケーションに有用である。
本稿では,与えられたシーンの暗黙の地図として使用し,この表現に合わせたカメラ再局在化アルゴリズムを提案する。
提案手法は,ナビゲーション中に1台のRGBカメラを用いて,デバイスの正確な位置をリアルタイムで計算することができる。
従来の研究とは対照的に、ポーズ回帰や測光アライメントに頼るのではなく、自己監督目的のシーンに特有なボリュームレンダリングによって得られる密集した局所的特徴を用いる。
その結果、我々のアルゴリズムは競合相手よりも正確であり、雷条件を変化させた動的屋外環境での動作が可能であり、任意のボリュームニューラルレンダラーに容易に統合できる。
関連論文リスト
- GS-EVT: Cross-Modal Event Camera Tracking based on Gaussian Splatting [19.0745952177123]
本稿では,モーショントラッキングにおけるイベントカメラの利用について検討する。
難解なダイナミクスと照明の下で、固有の堅牢性を備えたソリューションを提供する。
フレームベースのカメラから直接来る地図表現を追跡する。
論文 参考訳(メタデータ) (2024-09-28T03:56:39Z) - Relighting Scenes with Object Insertions in Neural Radiance Fields [24.18050535794117]
本研究では,物体のNeRFをシーンのNeRFに挿入するための新しいNeRFパイプラインを提案する。
提案手法は,広範囲な実験評価において,現実的な照明効果を実現する。
論文 参考訳(メタデータ) (2024-06-21T00:58:58Z) - Gaussian-SLAM: Photo-realistic Dense SLAM with Gaussian Splatting [24.160436463991495]
本稿では3次元ガウスアンをシーン表現として用いたSLAM法を提案する。
本手法は,実世界のシングルカメラRGBDビデオから,インタラクティブなリアルタイム再構成と写真リアルレンダリングを実現する。
論文 参考訳(メタデータ) (2023-12-06T10:47:53Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - Deformable Neural Radiance Fields using RGB and Event Cameras [65.40527279809474]
我々は,RGBとイベントカメラを用いた変形可能なニューラル放射場をモデル化する新しい手法を開発した。
提案手法は,イベントの非同期ストリームと疎RGBフレームを用いる。
現実的にレンダリングされたグラフィックと実世界のデータセットの両方で実施された実験は、提案手法の有益性を実証している。
論文 参考訳(メタデータ) (2023-09-15T14:19:36Z) - Spatiotemporally Consistent HDR Indoor Lighting Estimation [66.26786775252592]
本研究では,屋内照明推定問題を解決するための物理動機付きディープラーニングフレームワークを提案する。
深度マップを用いた1枚のLDR画像から,任意の画像位置における空間的に一貫した照明を予測できる。
我々のフレームワークは、最先端の単一画像やビデオベースの手法と比較して、高画質で光リアリスティック照明予測を実現する。
論文 参考訳(メタデータ) (2023-05-07T20:36:29Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z) - Object-based Illumination Estimation with Rendering-aware Neural
Networks [56.01734918693844]
個々の物体とその局所画像領域のRGBD外観から高速環境光推定手法を提案する。
推定照明により、仮想オブジェクトは実際のシーンと一貫性のあるシェーディングでARシナリオでレンダリングできる。
論文 参考訳(メタデータ) (2020-08-06T08:23:19Z) - NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis [78.5281048849446]
本稿では,複雑なシーンの新たなビューを合成する手法を提案する。
提案アルゴリズムは,完全接続型(非畳み込み型)深層ネットワークを用いたシーンを表現する。
ボリュームレンダリングは自然に微分可能であるため、表現を最適化するのに必要な唯一の入力は、既知のカメラポーズを持つ画像の集合である。
論文 参考訳(メタデータ) (2020-03-19T17:57:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。