論文の概要: Learning Reconstructability for Drone Aerial Path Planning
- arxiv url: http://arxiv.org/abs/2209.10174v1
- Date: Wed, 21 Sep 2022 08:10:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 17:02:25.698455
- Title: Learning Reconstructability for Drone Aerial Path Planning
- Title(参考訳): ドローン飛行経路計画のための学習再構成可能性
- Authors: Yilin Liu, Liqiang Lin, Yue Hu, Ke Xie, Chi-Wing Fu, Hao Zhang, Hui
Huang
- Abstract要約: 本研究では,無人ドローンを用いた大規模3次元都市景観獲得のためのビューとパスプランニングを改善するための,学習に基づく最初の再構成可能性予測器を提案する。
従来の手法とは対照的に,本手法では,一組の視点から3次元都市景観をいかによく再構築するかを明示的に予測するモデルを学習する。
- 参考スコア(独自算出の注目度): 51.736344549907265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the first learning-based reconstructability predictor to improve
view and path planning for large-scale 3D urban scene acquisition using
unmanned drones. In contrast to previous heuristic approaches, our method
learns a model that explicitly predicts how well a 3D urban scene will be
reconstructed from a set of viewpoints. To make such a model trainable and
simultaneously applicable to drone path planning, we simulate the proxy-based
3D scene reconstruction during training to set up the prediction. Specifically,
the neural network we design is trained to predict the scene reconstructability
as a function of the proxy geometry, a set of viewpoints, and optionally a
series of scene images acquired in flight. To reconstruct a new urban scene, we
first build the 3D scene proxy, then rely on the predicted reconstruction
quality and uncertainty measures by our network, based off of the proxy
geometry, to guide the drone path planning. We demonstrate that our data-driven
reconstructability predictions are more closely correlated to the true
reconstruction quality than prior heuristic measures. Further, our learned
predictor can be easily integrated into existing path planners to yield
improvements. Finally, we devise a new iterative view planning framework, based
on the learned reconstructability, and show superior performance of the new
planner when reconstructing both synthetic and real scenes.
- Abstract(参考訳): 本稿では,無人ドローンを用いた大規模3次元都市景観獲得のための視点と経路計画を改善するために,最初の学習に基づく再構成可能性予測器を提案する。
従来のヒューリスティック手法とは対照的に,本手法では,一組の視点から3次元都市景観の再現性を明確に予測するモデルを学習する。
このようなモデルをドローン経路計画に同時に適用可能にするため,訓練中のプロキシベースの3Dシーン再構成をシミュレートし,予測設定を行う。
特に、我々が設計したニューラルネットワークは、プロキシジオメトリ、ビューのセット、飛行中に取得した一連のシーンイメージの関数として、シーンの再構成可能性を予測するように訓練されています。
新しい都市景観を再構築するために,我々はまず3Dシーン・プロキシを構築し,その後,プロキシ・ジオメトリに基づくネットワークによる予測された再構築品質と不確実性に頼って,ドローンの経路計画の指導を行う。
データ駆動型再構築可能性予測は,従来のヒューリスティック指標よりも真の再構築品質と密接に関連していることを示す。
さらに,学習した予測器を既存のパスプランナに統合することで,改善を実現することができる。
最後に,学習した再構築可能性に基づいて,新しい反復的視点計画フレームワークを考案し,合成シーンと実シーンの両方を再現する上で,新しいプランナーの性能を示す。
関連論文リスト
- OccNeRF: Self-Supervised Multi-Camera Occupancy Prediction with Neural
Radiance Fields [80.35807140179736]
自己監督型マルチカメラ占有率予測のためのOccNeRF法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成する。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Robust Geometry-Preserving Depth Estimation Using Differentiable
Rendering [93.94371335579321]
我々は、余分なデータやアノテーションを必要とせずに、幾何学保存深度を予測するためにモデルを訓練する学習フレームワークを提案する。
包括的な実験は、我々のフレームワークの優れた一般化能力を強調します。
我々の革新的な損失関数は、ドメイン固有のスケール・アンド・シフト係数を自律的に復元するモデルを可能にします。
論文 参考訳(メタデータ) (2023-09-18T12:36:39Z) - Bag of Views: An Appearance-based Approach to Next-Best-View Planning
for 3D Reconstruction [3.637651065605852]
Bag-of-Views (BoV) は、キャプチャされたビューにユーティリティを割り当てるのに使用される、完全な外観ベースのモデルである。
View Planning Toolbox(VPT)は、機械学習ベースのビュープランニングフレームワークのトレーニングとテストのための軽量パッケージである。
論文 参考訳(メタデータ) (2023-07-11T22:56:55Z) - Perspective Reconstruction of Human Faces by Joint Mesh and Landmark
Regression [89.8129467907451]
本研究では,世界空間の3次元顔メッシュを同時に再構築し,画像平面上の2次元顔のランドマークを予測することを提案する。
予測された3Dおよび2Dランドマークに基づいて、6DF (6 Degrees Freedom)フェイスポーズを解決者により容易に推定することができる。
論文 参考訳(メタデータ) (2022-08-15T12:32:20Z) - PlaneFormers: From Sparse View Planes to 3D Reconstruction [14.45228936875838]
本稿では,画像の重なりが限定された平面面再構成手法を提案する。
より単純なアプローチであるPlaneFormerを導入し、3次元推論を行うために3D対応平面トークンに変換器を適用する。
論文 参考訳(メタデータ) (2022-08-08T17:58:13Z) - NeurAR: Neural Uncertainty for Autonomous 3D Reconstruction [64.36535692191343]
暗黙の神経表現はオフラインの3D再構成において魅力的な結果を示しており、オンラインSLAMシステムの可能性も最近示している。
本論文は,1)新しい表現に基づく視点計画の質を評価するための基準を求めること,2)手作りではなく,異なる場面に一般化可能なデータから基準を学習すること,の2つの課題に対処する。
本手法は, TSDFを用いた変形モデルやビュープランニングなしでの再構成モデルと比較した場合, レンダリングされた画像品質と再構成された3次元モデルの幾何学的品質について, 様々な指標について有意な改善を示す。
論文 参考訳(メタデータ) (2022-07-22T10:05:36Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - PlaneRecNet: Multi-Task Learning with Cross-Task Consistency for
Piece-Wise Plane Detection and Reconstruction from a Single RGB Image [11.215334675788952]
ピアースワイドな3次元平面再構成は、特に屋内シナリオにおいて、人為的な環境の全体像の理解を提供する。
最新のアプローチは、高度なネットワークアーキテクチャを導入し、セグメンテーションと再構築結果の改善に重点を置いている。
マルチタスク畳み込みニューラルネットワークであるPlaneRecNetのクロスタスク一貫性の強化から始まります。
平面分割と深さ推定の精度を両立させる新しい損失関数(幾何学的制約)を導入する。
論文 参考訳(メタデータ) (2021-10-21T15:54:03Z) - Reconstruct, Rasterize and Backprop: Dense shape and pose estimation
from a single image [14.9851111159799]
本稿では,1枚の画像から6-DoFポーズとともに高密度物体再構成を行うシステムを提案する。
我々は、カメラフレームの3D再構成でループを閉じるために、差別化可能なレンダリング(特にロボティクス)の最近の進歩を活用している。
論文 参考訳(メタデータ) (2020-04-25T20:53:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。