論文の概要: Zero-Shot UAV Navigation in Forests via Relightable 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2602.07101v1
- Date: Fri, 06 Feb 2026 15:51:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.44862
- Title: Zero-Shot UAV Navigation in Forests via Relightable 3D Gaussian Splatting
- Title(参考訳): 可照性3次元ガウススプレイティングによる森林の無着陸UAV航法
- Authors: Zinan Lv, Yeqian Qian, Chen Sang, Hao Liu, Danping Zou, Ming Yang,
- Abstract要約: 受動的単眼視を用いた非構造屋外環境におけるUAVナビゲーションは、シミュレーションと現実の間のかなりの視覚領域のギャップによって妨げられる。
本研究では,非構造化屋外への効率的なゼロショット転送を目的とした,エンドツーエンドの強化学習フレームワークを提案する。
本研究では, 複雑な森林環境において, 最大10m/sの速さで, 頑健で無衝突な航法を実現することを実証した。
- 参考スコア(独自算出の注目度): 11.31291385822484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: UAV navigation in unstructured outdoor environments using passive monocular vision is hindered by the substantial visual domain gap between simulation and reality. While 3D Gaussian Splatting enables photorealistic scene reconstruction from real-world data, existing methods inherently couple static lighting with geometry, severely limiting policy generalization to dynamic real-world illumination. In this paper, we propose a novel end-to-end reinforcement learning framework designed for effective zero-shot transfer to unstructured outdoors. Within a high-fidelity simulation grounded in real-world data, our policy is trained to map raw monocular RGB observations directly to continuous control commands. To overcome photometric limitations, we introduce Relightable 3D Gaussian Splatting, which decomposes scene components to enable explicit, physically grounded editing of environmental lighting within the neural representation. By augmenting training with diverse synthesized lighting conditions ranging from strong directional sunlight to diffuse overcast skies, we compel the policy to learn robust, illumination-invariant visual features. Extensive real-world experiments demonstrate that a lightweight quadrotor achieves robust, collision-free navigation in complex forest environments at speeds up to 10 m/s, exhibiting significant resilience to drastic lighting variations without fine-tuning.
- Abstract(参考訳): 受動的単眼視を用いた非構造屋外環境におけるUAVナビゲーションは、シミュレーションと現実の間のかなりの視覚領域のギャップによって妨げられる。
3D Gaussian Splattingは実世界のデータから光写実的シーンを再構築するが、既存の手法は本質的に静的照明と幾何学を組み合わせ、ポリシーの一般化を動的現実の照明に厳しく制限する。
本稿では,非構造化屋外への効率的なゼロショット転送を目的とした,エンドツーエンドの強化学習フレームワークを提案する。
実世界のデータに基づく高忠実度シミュレーションでは,生の単分子RGB観測を直接連続制御コマンドにマッピングする方針を定めている。
光度制限を克服するために、シーンコンポーネントを分解して、ニューラル表現内の環境光を明示的に物理的に編集するRelightable 3D Gaussian Splattingを導入する。
強い指向性日光から拡散するオーバーキャスト空まで多様な合成照明条件でトレーニングを増強することにより、ロバストで照明に不変な視覚的特徴を学習するようにポリシーを強制する。
広汎な実世界の実験は、複雑な森林環境で10m/sの速度で、軽量な四重極線が頑丈で無衝突の航法を達成し、微調整をせずに、劇的な光の変動に顕著な耐性を示すことを示した。
関連論文リスト
- ROGR: Relightable 3D Objects using Generative Relighting [71.35020300131261]
ROGRは,複数の視点から捉えたオブジェクトの3Dモデルを再構築する新しい手法である。
我々は、入力された環境光の下で物体の外観を出力する照明条件のニューラルレージアンス場(NeRF)を訓練する。
我々は、確立されたTensoIRおよびStanford-ORBデータセットに対する我々のアプローチを評価し、実世界のオブジェクトキャプチャに対する我々のアプローチを示す。
論文 参考訳(メタデータ) (2025-10-03T16:35:22Z) - LuxDiT: Lighting Estimation with Video Diffusion Transformer [66.60450792095901]
単一の画像やビデオからシーンライティングを推定することは、コンピュータビジョンとグラフィックスにおいて長年の課題である。
本稿では,映像拡散変換器を微調整し,視覚入力を前提としたHDR環境マップを生成するLuxDiTを提案する。
論文 参考訳(メタデータ) (2025-09-03T19:59:20Z) - GaRe: Relightable 3D Gaussian Splatting for Outdoor Scenes from Unconstrained Photo Collections [19.8966661817631]
屋外リライトのための3次元ガウススプラッティングに基づくフレームワークを提案する。
提案手法は多様なシェーディング操作と動的シャドウ効果の同時生成を可能にする。
論文 参考訳(メタデータ) (2025-07-28T04:29:57Z) - PBIR-NIE: Glossy Object Capture under Non-Distant Lighting [30.325872237020395]
グロッシーオブジェクトは自然光下での多視点入力画像から3次元再構成を行う上で重要な課題となる。
PBIR-NIEは, 物体の形状, 材料特性, 周囲の照明を均等に捉えるために設計された逆レンダリングフレームワークである。
論文 参考訳(メタデータ) (2024-08-13T13:26:24Z) - A Real-time Method for Inserting Virtual Objects into Neural Radiance
Fields [38.370278809341954]
本稿では,剛体仮想物体を神経放射場に挿入する最初のリアルタイム手法を提案する。
提案手法は,NeRFにおける照明と幾何学に関する豊富な情報を活用することで,拡張現実における物体挿入の課題を克服する。
論文 参考訳(メタデータ) (2023-10-09T16:26:34Z) - Spatiotemporally Consistent HDR Indoor Lighting Estimation [66.26786775252592]
本研究では,屋内照明推定問題を解決するための物理動機付きディープラーニングフレームワークを提案する。
深度マップを用いた1枚のLDR画像から,任意の画像位置における空間的に一貫した照明を予測できる。
我々のフレームワークは、最先端の単一画像やビデオベースの手法と比較して、高画質で光リアリスティック照明予測を実現する。
論文 参考訳(メタデータ) (2023-05-07T20:36:29Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - Neural Light Field Estimation for Street Scenes with Differentiable
Virtual Object Insertion [129.52943959497665]
既存の屋外照明推定の作業は通常、シーン照明を環境マップに単純化する。
単一画像から5次元HDR光場を推定するニューラルネットワークを提案する。
自律運転アプリケーションにおけるARオブジェクト挿入の利点を示す。
論文 参考訳(メタデータ) (2022-08-19T17:59:16Z) - Neural Radiance Transfer Fields for Relightable Novel-view Synthesis
with Global Illumination [63.992213016011235]
本稿では,ニューラル計算された放射光伝達関数を学習し,新しい視点下でのシーンリライティング手法を提案する。
本手法は,1つの未知の照明条件下で,シーンの実際の画像に対してのみ監視することができる。
その結果, シーンパラメータのアンタングルの復元は, 現状よりも有意に向上していることがわかった。
論文 参考訳(メタデータ) (2022-07-27T16:07:48Z) - IllumiNet: Transferring Illumination from Planar Surfaces to Virtual
Objects in Augmented Reality [38.83696624634213]
本稿では,学習による実環境における仮想物体の照明推定手法を提案する。
一つのRGB画像が与えられた場合、シーンの平面面から抽出した照明特徴を所望のジオメトリに転送することで、信頼度の高い仮想オブジェクトを直接推測する。
論文 参考訳(メタデータ) (2020-07-12T13:11:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。