論文の概要: MaRF: Representing Mars as Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2212.01672v1
- Date: Sat, 3 Dec 2022 18:58:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 18:37:05.931333
- Title: MaRF: Representing Mars as Neural Radiance Fields
- Title(参考訳): MaRF:火星をニューラルラジアンス場として表現
- Authors: Lorenzo Giusti, Josue Garcia, Steven Cozine, Darrick Suen, Christina
Nguyen, Ryan Alimo
- Abstract要約: MARFは火星の環境を合成するためのフレームワークで、ローバーカメラの画像を何枚か集めている。
惑星地質学、シミュレートされた航法、形状解析などの惑星表面探査における重要な課題に対処する。
実験では,キュリオシティ・ローバー,パーセヴァンス・ローバー,インジェニティ・ヘリコプターによって捕獲された火星の実際のデータセットから生成された環境を実証した。
- 参考スコア(独自算出の注目度): 1.4680035572775534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The aim of this work is to introduce MaRF, a novel framework able to
synthesize the Martian environment using several collections of images from
rover cameras. The idea is to generate a 3D scene of Mars' surface to address
key challenges in planetary surface exploration such as: planetary geology,
simulated navigation and shape analysis. Although there exist different methods
to enable a 3D reconstruction of Mars' surface, they rely on classical computer
graphics techniques that incur high amounts of computational resources during
the reconstruction process, and have limitations with generalizing
reconstructions to unseen scenes and adapting to new images coming from rover
cameras. The proposed framework solves the aforementioned limitations by
exploiting Neural Radiance Fields (NeRFs), a method that synthesize complex
scenes by optimizing a continuous volumetric scene function using a sparse set
of images. To speed up the learning process, we replaced the sparse set of
rover images with their neural graphics primitives (NGPs), a set of vectors of
fixed length that are learned to preserve the information of the original
images in a significantly smaller size. In the experimental section, we
demonstrate the environments created from actual Mars datasets captured by
Curiosity rover, Perseverance rover and Ingenuity helicopter, all of which are
available on the Planetary Data System (PDS).
- Abstract(参考訳): この研究の目的は、ローバーカメラからの画像の集合を用いて火星環境を合成できる新しいフレームワークであるMARFを導入することである。
火星の表面の3dシーンを生成し、惑星の地質学、シミュレートされた航法、形状分析といった惑星表面探査の重要な課題に対処する。
火星の表面を3dで再現する方法はいくつか存在するが、それらはレコンストラクションプロセス中に大量の計算リソースを発生させる古典的なコンピュータグラフィックス技術に依存しており、レコンストラクションの一般化は見えないシーンへの一般化とローバーカメラからの新たな画像への適応に制限がある。
提案フレームワークは,画像のスパース集合を用いて連続的なボリュームシーン関数を最適化することにより複雑なシーンを合成するNeRF(Neural Radiance Fields)を利用して,上記の制限を解決する。
学習過程を高速化するために,我々は,ローバー画像の粗い集合をニューラルネットワークプリミティブ(NGP)に置き換えた。
実験では、curiosity rover、perseverance rover、ingenuity helicopterが撮影した実際の火星データセットから生成された環境をデモし、これらすべてがplanetary data system (pds)で利用可能である。
関連論文リスト
- SiLVR: Scalable Lidar-Visual Reconstruction with Neural Radiance Fields
for Robotic Inspection [4.6102302191645075]
本稿では,ライダーと視覚データを融合して高品質な再構築を行う,ニューラルネットワークに基づく大規模再構築システムを提案する。
実時間ライダーSLAMシステムからの軌道を利用してStructure-from-Motion (SfM) 手順をブートストラップする。
サブマッピングを用いて、長い軌道上で捕獲された大規模環境にシステムをスケールする。
論文 参考訳(メタデータ) (2024-03-11T16:31:25Z) - ReconFusion: 3D Reconstruction with Diffusion Priors [104.73604630145847]
本稿では,数枚の写真を用いて現実のシーンを再構成するReconFusionを提案する。
提案手法は,合成および多視点データセットに基づいて訓練された新規なビュー合成に先立って拡散を利用する。
本手法は,観測領域の外観を保ちながら,非拘束領域における現実的な幾何学とテクスチャを合成する。
論文 参考訳(メタデータ) (2023-12-05T18:59:58Z) - Mars Rover Localization Based on A2G Obstacle Distribution Pattern
Matching [0.0]
NASAのMars 2020ミッションでは、Ingenuityヘリコプターがローバーと共に運ばれる。
従来の画像マッチング手法は、有効な画像対応を得るのに苦労する。
画像に基づく岩盤検出と岩盤分布パターンマッチングを組み合わせたアルゴリズムを用いて、A2G画像対応を得る。
論文 参考訳(メタデータ) (2022-10-07T08:29:48Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - Urban Radiance Fields [77.43604458481637]
本研究では,都市屋外環境における世界地図作成によく利用されるスキャニングプラットフォームによって収集されたデータから3次元再構成と新しいビュー合成を行う。
提案手法は、制御された環境下での小さなシーンのための現実的な新しい画像の合成を実証したニューラルラジアンス場を拡張している。
これら3つのエクステンションはそれぞれ、ストリートビューデータの実験において、大幅なパフォーマンス改善を提供する。
論文 参考訳(メタデータ) (2021-11-29T15:58:16Z) - NeRS: Neural Reflectance Surfaces for Sparse-view 3D Reconstruction in
the Wild [80.09093712055682]
ニューラルリフレクタンスサーフェス(NeRS)と呼ばれる暗黙モデルの表面アナログを導入する。
NeRSは、球に微分される閉じた表面の神経形状の表現を学び、水密な再構成を保証する。
このようなデータから学習可能な表面ベースニューラル再構成は,体積的ニューラルレンダリングに基づく再構成よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-14T17:59:58Z) - Towards Robust Monocular Visual Odometry for Flying Robots on Planetary
Missions [49.79068659889639]
火星に着陸したばかりのIngenuityは、トラバーサビリティの影響を受けない新時代の探検の始まりとなるでしょう。
高速な光フロートラッキングを用いた高能率単分子オードメトリーアルゴリズムを提案する。
また、相対翻訳情報行列の主成分分析に基づいて、スケールドリフトの現在のリスクを推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-12T12:52:20Z) - Vision-based Neural Scene Representations for Spacecraft [1.0323063834827415]
高度なミッションコンセプトでは、宇宙船は内部の近くの軌道上の物体のポーズと形状をモデル化する必要があります。
ニューラルシーン表現における最近の研究は、光学画像から汎用的な3次元シーンを推定する有望な結果を示している。
NeRFとGRAFのポテンシャルを比較し、評価し、新しいビューをレンダリングし、2つの異なる宇宙船の3D形状を抽出します。
論文 参考訳(メタデータ) (2021-05-11T08:35:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。