論文の概要: Flying in Clutter on Monocular RGB by Learning in 3D Radiance Fields with Domain Adaptation
- arxiv url: http://arxiv.org/abs/2512.17349v1
- Date: Fri, 19 Dec 2025 08:44:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.422772
- Title: Flying in Clutter on Monocular RGB by Learning in 3D Radiance Fields with Domain Adaptation
- Title(参考訳): 領域適応型3次元放射場における学習による単分子RGB上のクラッタのフライング
- Authors: Xijie Huang, Jinhan Li, Tianyue Wu, Xin Zhou, Zhichao Han, Fei Gao,
- Abstract要約: 本稿では,3次元ガウス散乱(3DGS)環境の光写実性と,逆数領域適応とを結合するフレームワークを提案する。
高忠実度シミュレーションのトレーニングにおいて,特徴差の最小化を図りながら,提案手法はドメイン不変の手法に依存することを保証している。
実験の結果, 安全かつアジャイルな飛行を可能にするため, 物理的世界へのロバストなゼロショット移動を実現することが実証された。
- 参考スコア(独自算出の注目度): 9.881745654821922
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern autonomous navigation systems predominantly rely on lidar and depth cameras. However, a fundamental question remains: Can flying robots navigate in clutter using solely monocular RGB images? Given the prohibitive costs of real-world data collection, learning policies in simulation offers a promising path. Yet, deploying such policies directly in the physical world is hindered by the significant sim-to-real perception gap. Thus, we propose a framework that couples the photorealism of 3D Gaussian Splatting (3DGS) environments with Adversarial Domain Adaptation. By training in high-fidelity simulation while explicitly minimizing feature discrepancy, our method ensures the policy relies on domain-invariant cues. Experimental results demonstrate that our policy achieves robust zero-shot transfer to the physical world, enabling safe and agile flight in unstructured environments with varying illumination.
- Abstract(参考訳): 現代の自律航法システムは主にライダーと深度カメラに依存している。
しかし、基本的な疑問が残る。飛行ロボットは単眼のRGB画像だけで、ぼろぼろの中を移動できるのか?
現実世界のデータ収集の禁止コストを考えると、シミュレーションにおける学習ポリシーは有望な道のりを提供する。
しかし、このようなポリシーを物理的な世界に直接展開することは、大きなシミュレートから現実への認識ギャップによって妨げられる。
そこで本稿では,3次元ガウス・スティング(3DGS)環境の光写実性とAdversarial Domain Adaptationとを結合するフレームワークを提案する。
高忠実度シミュレーションのトレーニングにおいて,特徴差の最小化を図りながら,提案手法はドメイン不変の手法に依存することを保証している。
実験により,本方針は物理的世界へのロバストなゼロショット転送を実現し,照明の異なる非構造環境における安全かつアジャイルな飛行を可能にした。
関連論文リスト
- Zero-Shot UAV Navigation in Forests via Relightable 3D Gaussian Splatting [11.31291385822484]
受動的単眼視を用いた非構造屋外環境におけるUAVナビゲーションは、シミュレーションと現実の間のかなりの視覚領域のギャップによって妨げられる。
本研究では,非構造化屋外への効率的なゼロショット転送を目的とした,エンドツーエンドの強化学習フレームワークを提案する。
本研究では, 複雑な森林環境において, 最大10m/sの速さで, 頑健で無衝突な航法を実現することを実証した。
論文 参考訳(メタデータ) (2026-02-06T15:51:03Z) - Mirage2Matter: A Physically Grounded Gaussian World Model from Video [87.9732484393686]
我々は、グラフィック駆動の世界モデリングおよびシミュレーションフレームワークであるSimulate Anythingを紹介する。
実世界の環境を3次元ガウススプレイティング(3DGS)による写実的シーン表現に再構築する。
次に、生成モデルを利用して、物理的に現実的な表現を復元し、精度校正ターゲットを介してシミュレーション環境に統合する。
論文 参考訳(メタデータ) (2026-01-24T07:43:57Z) - VR-Robo: A Real-to-Sim-to-Real Framework for Visual Robot Navigation and Locomotion [25.440573256776133]
本稿では,視覚ナビゲーションと移動学習のための物理的にインタラクティブな「デジタルツイン」シミュレーション環境を生成する,リアル・ツー・シム・トゥ・リアルのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-03T17:15:05Z) - Gaussian Splatting to Real World Flight Navigation Transfer with Liquid Networks [93.38375271826202]
本研究では,シミュレート・トゥ・リアルな視覚四重項ナビゲーションタスクにおける分布シフトに対する一般化とロバスト性を改善する手法を提案する。
まず,擬似飛行力学とガウススプラッティングを統合してシミュレータを構築し,その後,液状ニューラルネットワークを用いてロバストなナビゲーションポリシーを訓練する。
このようにして、我々は3次元ガウススプラッティングラディアンス場レンダリング、専門家による実演訓練データのプログラミング、およびLiquid Networkのタスク理解能力の進歩を組み合わせたフルスタックの模倣学習プロトコルを得る。
論文 参考訳(メタデータ) (2024-06-21T13:48:37Z) - Robust Visual Sim-to-Real Transfer for Robotic Manipulation [79.66851068682779]
シミュレーションにおけるビジュモータポリシーの学習は、現実世界よりも安全で安価である。
しかし、シミュレーションデータと実データとの相違により、シミュレータ訓練されたポリシーは実際のロボットに転送されると失敗することが多い。
視覚的なsim-to-real領域ギャップを埋める一般的なアプローチは、ドメインランダム化(DR)である。
論文 参考訳(メタデータ) (2023-07-28T05:47:24Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z) - Learning a State Representation and Navigation in Cluttered and Dynamic
Environments [6.909283975004628]
本稿では,四足ロボットによる局所ナビゲーションを実現するための学習ベースのパイプラインを提案する。
ロボットは、環境を明示的にマッピングすることなく、奥行きカメラのフレームに基づいて、安全な場所へ移動することができる。
本システムでは,ノイズの多い奥行き画像の処理が可能であり,訓練中の動的障害物を回避でき,局所的な空間意識を付与できることを示す。
論文 参考訳(メタデータ) (2021-03-07T13:19:06Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。