論文の概要: Vision-based Neural Scene Representations for Spacecraft
- arxiv url: http://arxiv.org/abs/2105.06405v1
- Date: Tue, 11 May 2021 08:35:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 13:56:46.572907
- Title: Vision-based Neural Scene Representations for Spacecraft
- Title(参考訳): 視覚に基づく宇宙機のニューラルシーン表現
- Authors: Anne Mergy, Gurvan Lecuyer, Dawa Derksen, Dario Izzo
- Abstract要約: 高度なミッションコンセプトでは、宇宙船は内部の近くの軌道上の物体のポーズと形状をモデル化する必要があります。
ニューラルシーン表現における最近の研究は、光学画像から汎用的な3次元シーンを推定する有望な結果を示している。
NeRFとGRAFのポテンシャルを比較し、評価し、新しいビューをレンダリングし、2つの異なる宇宙船の3D形状を抽出します。
- 参考スコア(独自算出の注目度): 1.0323063834827415
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In advanced mission concepts with high levels of autonomy, spacecraft need to
internally model the pose and shape of nearby orbiting objects. Recent works in
neural scene representations show promising results for inferring generic
three-dimensional scenes from optical images. Neural Radiance Fields (NeRF)
have shown success in rendering highly specular surfaces using a large number
of images and their pose. More recently, Generative Radiance Fields (GRAF)
achieved full volumetric reconstruction of a scene from unposed images only,
thanks to the use of an adversarial framework to train a NeRF. In this paper,
we compare and evaluate the potential of NeRF and GRAF to render novel views
and extract the 3D shape of two different spacecraft, the Soil Moisture and
Ocean Salinity satellite of ESA's Living Planet Programme and a generic cube
sat. Considering the best performances of both models, we observe that NeRF has
the ability to render more accurate images regarding the material specularity
of the spacecraft and its pose. For its part, GRAF generates precise novel
views with accurate details even when parts of the satellites are shadowed
while having the significant advantage of not needing any information about the
relative pose.
- Abstract(参考訳): 高レベルの自律性を持つ先進的なミッション概念では、宇宙船は近くの軌道上の物体の姿勢と形状を内部的にモデル化する必要がある。
ニューラルシーン表現における最近の研究は、光学画像から汎用的な3次元シーンを推定する有望な結果を示している。
ニューラル・ラジアンス・フィールド(NeRF)は、多数の画像とそれらのポーズを使って、高精細な表面をレンダリングすることに成功した。
最近では、GAAF(Generative Radiance Fields)は、NeRFのトレーニングに対向的なフレームワークを使用することにより、未提示の画像のみからシーンをフルボリュームに再構築することに成功した。
本稿では,ESAのリビングプラネットプログラムの土壌水分とオーシャンサリニティ衛星と一般的な立方体座の2つの異なる宇宙船の3次元形状を抽出するために,NeRFとGRAFのポテンシャルを比較して評価する。
両モデルの最高の性能を考えると、NeRFは宇宙船の材質の特異性とそのポーズに関するより正確な画像をレンダリングすることができる。
GRAFはその部分で、衛星の一部がシャドーされている場合でも正確な詳細で正確な新しいビューを生成するが、相対的なポーズに関する情報は必要ないという大きな利点がある。
関連論文リスト
- DreamSat: Towards a General 3D Model for Novel View Synthesis of Space Objects [0.6986413087958454]
本研究では,DreamSatという単一視点画像から3次元宇宙船を再構成する手法を提案する。
我々は、高品質な190の宇宙船モデルのデータセットに基づいて、最先端の単一ビュー再構成モデルであるZero123 XLを微調整する。
このアプローチは、DreamGaussianフレームワークの効率を維持しながら、宇宙船の復元の精度と詳細を向上する。
論文 参考訳(メタデータ) (2024-10-07T14:51:54Z) - BRDF-NeRF: Neural Radiance Fields with Optical Satellite Images and BRDF Modelling [0.0]
本稿では,Rahman-Pinty-Verstraete (RPV) BRDFモデルを用いたBRDF-NeRFを提案する。
BRDF-NeRFは目に見えない角度から新しいビューを合成し、高品質なデジタル表面モデルを生成する。
論文 参考訳(メタデータ) (2024-09-18T14:28:52Z) - Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - TriHuman : A Real-time and Controllable Tri-plane Representation for
Detailed Human Geometry and Appearance Synthesis [76.73338151115253]
TriHumanは、人間によって調整され、変形可能で、効率的な三面体表現である。
我々は、未変形の三面体テクスチャ空間に、地球規模のサンプルを厳格にワープする。
このような三面的特徴表現が骨格運動でどのように条件付けされ、動的外観や幾何学的変化を考慮に入れられるかを示す。
論文 参考訳(メタデータ) (2023-12-08T16:40:38Z) - rpcPRF: Generalizable MPI Neural Radiance Field for Satellite Camera [0.76146285961466]
本稿では,多面体画像(MPI)を用いたRPO(Rational Polynomial Camera)のための平面神経放射場rpcPRFを提案する。
本稿では,3次元座標と画像の間の正確な形状を学習するために,予測されたMPIを誘導するために再投影監視を利用する。
我々は、放射場の描画技術を導入することにより、深層多視点ステレオ法から密集深度監視の厳密な要求を取り除いた。
論文 参考訳(メタデータ) (2023-10-11T04:05:11Z) - Multi-Space Neural Radiance Fields [74.46513422075438]
既存のニューラルレージアンス場(NeRF)法は反射物体の存在に悩まされている。
並列部分空間における特徴場の群を用いてシーンを表現するマルチスペースニューラルレイディアンス場(MS-NeRF)を提案する。
提案手法は,高品質シーンのレンダリングにおいて,既存の単一空間NeRF法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-07T13:11:07Z) - 3D Reconstruction of Non-cooperative Resident Space Objects using
Instant NGP-accelerated NeRF and D-NeRF [0.0]
この研究は、ニューラル放射場(NeRF)アルゴリズムの変動であるInstant NeRFとD-NeRFを軌道上のRSOをマッピングする問題に適応させる。
これらのアルゴリズムは、宇宙船モックアップの画像のデータセットを用いて、3次元再構成の品質とハードウェア要件を評価する。
論文 参考訳(メタデータ) (2023-01-22T05:26:08Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - Urban Radiance Fields [77.43604458481637]
本研究では,都市屋外環境における世界地図作成によく利用されるスキャニングプラットフォームによって収集されたデータから3次元再構成と新しいビュー合成を行う。
提案手法は、制御された環境下での小さなシーンのための現実的な新しい画像の合成を実証したニューラルラジアンス場を拡張している。
これら3つのエクステンションはそれぞれ、ストリートビューデータの実験において、大幅なパフォーマンス改善を提供する。
論文 参考訳(メタデータ) (2021-11-29T15:58:16Z) - SPEED+: Next Generation Dataset for Spacecraft Pose Estimation across
Domain Gap [0.9449650062296824]
本稿では,SPEED+について紹介する。次世代宇宙船は,領域ギャップに着目したポーズ推定データセットである。
SPEED+には、レンデブース・オプティカル・ナビゲーション(TRON)施設で撮影された宇宙船モックアップモデルの9,531枚のシミュレーション画像が含まれている。
TRONは、任意の数のターゲット画像を、正確かつ極端に多様なポーズラベルで撮影できる、第一種ロボットテストベッドである。
論文 参考訳(メタデータ) (2021-10-06T23:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。