論文の概要: Learning Reconstructability for Drone Aerial Path Planning
- arxiv url: http://arxiv.org/abs/2209.10174v1
- Date: Wed, 21 Sep 2022 08:10:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 17:02:25.698455
- Title: Learning Reconstructability for Drone Aerial Path Planning
- Title(参考訳): ドローン飛行経路計画のための学習再構成可能性
- Authors: Yilin Liu, Liqiang Lin, Yue Hu, Ke Xie, Chi-Wing Fu, Hao Zhang, Hui
Huang
- Abstract要約: 本研究では,無人ドローンを用いた大規模3次元都市景観獲得のためのビューとパスプランニングを改善するための,学習に基づく最初の再構成可能性予測器を提案する。
従来の手法とは対照的に,本手法では,一組の視点から3次元都市景観をいかによく再構築するかを明示的に予測するモデルを学習する。
- 参考スコア(独自算出の注目度): 51.736344549907265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the first learning-based reconstructability predictor to improve
view and path planning for large-scale 3D urban scene acquisition using
unmanned drones. In contrast to previous heuristic approaches, our method
learns a model that explicitly predicts how well a 3D urban scene will be
reconstructed from a set of viewpoints. To make such a model trainable and
simultaneously applicable to drone path planning, we simulate the proxy-based
3D scene reconstruction during training to set up the prediction. Specifically,
the neural network we design is trained to predict the scene reconstructability
as a function of the proxy geometry, a set of viewpoints, and optionally a
series of scene images acquired in flight. To reconstruct a new urban scene, we
first build the 3D scene proxy, then rely on the predicted reconstruction
quality and uncertainty measures by our network, based off of the proxy
geometry, to guide the drone path planning. We demonstrate that our data-driven
reconstructability predictions are more closely correlated to the true
reconstruction quality than prior heuristic measures. Further, our learned
predictor can be easily integrated into existing path planners to yield
improvements. Finally, we devise a new iterative view planning framework, based
on the learned reconstructability, and show superior performance of the new
planner when reconstructing both synthetic and real scenes.
- Abstract(参考訳): 本稿では,無人ドローンを用いた大規模3次元都市景観獲得のための視点と経路計画を改善するために,最初の学習に基づく再構成可能性予測器を提案する。
従来のヒューリスティック手法とは対照的に,本手法では,一組の視点から3次元都市景観の再現性を明確に予測するモデルを学習する。
このようなモデルをドローン経路計画に同時に適用可能にするため,訓練中のプロキシベースの3Dシーン再構成をシミュレートし,予測設定を行う。
特に、我々が設計したニューラルネットワークは、プロキシジオメトリ、ビューのセット、飛行中に取得した一連のシーンイメージの関数として、シーンの再構成可能性を予測するように訓練されています。
新しい都市景観を再構築するために,我々はまず3Dシーン・プロキシを構築し,その後,プロキシ・ジオメトリに基づくネットワークによる予測された再構築品質と不確実性に頼って,ドローンの経路計画の指導を行う。
データ駆動型再構築可能性予測は,従来のヒューリスティック指標よりも真の再構築品質と密接に関連していることを示す。
さらに,学習した予測器を既存のパスプランナに統合することで,改善を実現することができる。
最後に,学習した再構築可能性に基づいて,新しい反復的視点計画フレームワークを考案し,合成シーンと実シーンの両方を再現する上で,新しいプランナーの性能を示す。
関連論文リスト
- PVP-Recon: Progressive View Planning via Warping Consistency for Sparse-View Surface Reconstruction [49.7580491592023]
PVP-Recon, 新規かつ効果的なスパースビュー表面再構成法を提案する。
PVP-Reconは3つのビューで初期表面の再構築を開始し、徐々に新しいビューを追加する。
このプログレッシブビュー計画の進捗は、神経SDFベースの再構築モジュールによってインターリーブされる。
論文 参考訳(メタデータ) (2024-09-09T10:06:34Z) - MaRINeR: Enhancing Novel Views by Matching Rendered Images with Nearby References [49.71130133080821]
MaRINeRは、近くのマッピング画像の情報を活用して、ターゲット視点のレンダリングを改善する方法である。
暗黙のシーン表現と暗黙のシーン表現の両方から、定量的な指標と定性的な例のレンダリングの改善を示す。
論文 参考訳(メタデータ) (2024-07-18T17:50:03Z) - UniPlane: Unified Plane Detection and Reconstruction from Posed Monocular Videos [12.328095228008893]
単眼ビデオから平面検出と再構成を統一する新しい手法であるUniPlaneを提案する。
我々はトランスフォーマーベースのディープニューラルネットワークを構築し、環境のための3D機能ボリュームを共同で構築する。
実世界のデータセットの実験では、UniPlaneは平面検出と再構成の両方において最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2024-07-04T03:02:27Z) - Exploiting Priors from 3D Diffusion Models for RGB-Based One-Shot View Planning [24.44253219419552]
本稿では,拡散モデルの強力な3次元生成能力を先行として活用したワンショットビュー計画手法を提案する。
シミュレーションと実環境における実験により, オブジェクト再構成の品質と移動コストのバランスが良好であることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T14:21:49Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Bag of Views: An Appearance-based Approach to Next-Best-View Planning
for 3D Reconstruction [3.637651065605852]
Bag-of-Views (BoV) は、キャプチャされたビューにユーティリティを割り当てるのに使用される、完全な外観ベースのモデルである。
View Planning Toolbox(VPT)は、機械学習ベースのビュープランニングフレームワークのトレーニングとテストのための軽量パッケージである。
論文 参考訳(メタデータ) (2023-07-11T22:56:55Z) - PlaneFormers: From Sparse View Planes to 3D Reconstruction [14.45228936875838]
本稿では,画像の重なりが限定された平面面再構成手法を提案する。
より単純なアプローチであるPlaneFormerを導入し、3次元推論を行うために3D対応平面トークンに変換器を適用する。
論文 参考訳(メタデータ) (2022-08-08T17:58:13Z) - NeurAR: Neural Uncertainty for Autonomous 3D Reconstruction [64.36535692191343]
暗黙の神経表現はオフラインの3D再構成において魅力的な結果を示しており、オンラインSLAMシステムの可能性も最近示している。
本論文は,1)新しい表現に基づく視点計画の質を評価するための基準を求めること,2)手作りではなく,異なる場面に一般化可能なデータから基準を学習すること,の2つの課題に対処する。
本手法は, TSDFを用いた変形モデルやビュープランニングなしでの再構成モデルと比較した場合, レンダリングされた画像品質と再構成された3次元モデルの幾何学的品質について, 様々な指標について有意な改善を示す。
論文 参考訳(メタデータ) (2022-07-22T10:05:36Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。