論文の概要: On-the-fly Feedback SfM: Online Explore-and-Exploit UAV Photogrammetry with Incremental Mesh Quality-Aware Indicator and Predictive Path Planning
- arxiv url: http://arxiv.org/abs/2512.02375v1
- Date: Tue, 02 Dec 2025 03:32:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.704909
- Title: On-the-fly Feedback SfM: Online Explore-and-Exploit UAV Photogrammetry with Incremental Mesh Quality-Aware Indicator and Predictive Path Planning
- Title(参考訳): On-the-fly Feedback SfM:Incremental Mesh Quality-Aware Indicatorと予測経路計画を用いたオンライン探索・拡大UAV撮影
- Authors: Liyuan Lou, Wanyun Li, Wentian Gan, Yifei Yu, Tengfei Wang, Xin Wang, Zongqian Zhan,
- Abstract要約: 本研究は,リアルタイムUAV測光のための探索・探索フレームワークであるOn-the-fly Feedback SfMを提案する。
提案手法は,(1)スパース3Dポイントクラウドを動的に拡張するオンラインインクリメンタル粗メッシュ生成,(2)動作可能な指標を用いたオンラインメッシュ品質評価,(3)オンザフライ軌道修正のための予測経路計画という3つのモジュールを統合した。
- 参考スコア(独自算出の注目度): 8.97923831627138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compared with conventional offline UAV photogrammetry, real-time UAV photogrammetry is essential for time-critical geospatial applications such as disaster response and active digital-twin maintenance. However, most existing methods focus on processing captured images or sequential frames in real time, without explicitly evaluating the quality of the on-the-go 3D reconstruction or providing guided feedback to enhance image acquisition in the target area. This work presents On-the-fly Feedback SfM, an explore-and-exploit framework for real-time UAV photogrammetry, enabling iterative exploration of unseen regions and exploitation of already observed and reconstructed areas in near real time. Built upon SfM on-the-fly , the proposed method integrates three modules: (1) online incremental coarse-mesh generation for dynamically expanding sparse 3D point cloud; (2) online mesh quality assessment with actionable indicators; and (3) predictive path planning for on-the-fly trajectory refinement. Comprehensive experiments demonstrate that our method achieves in-situ reconstruction and evaluation in near real time while providing actionable feedback that markedly reduces coverage gaps and re-flight costs. Via the integration of data collection, processing, 3D reconstruction and assessment, and online feedback, our on the-fly feedback SfM could be an alternative for the transition from traditional passive working mode to a more intelligent and adaptive exploration workflow. Code is now available at https://github.com/IRIS-LAB-whu/OntheflySfMFeedback.
- Abstract(参考訳): 災害応答やアクティブデジタル双極子維持などの時空間的応用には,従来のオフラインUAV測光法と比べ,リアルタイムUAV測光法が不可欠である。
しかし、既存のほとんどの手法は、撮影画像やシーケンシャルフレームをリアルタイムで処理することに焦点を当てており、現在進行中の3D再構成の品質を明示的に評価したり、目標領域における画像取得を改善するためのガイド付きフィードバックを提供したりしない。
この研究は、リアルタイムUAV測光のための探索・探索フレームワークであるOn-the-fly Feedback SfMを提示する。
提案手法は,SfMをオンザフライで構築し,(1)スパース3Dポイントクラウドを動的に拡張するためのオンラインインクリメンタル粗メッシュ生成,(2)動作可能な指標を用いたオンラインメッシュ品質評価,(3)オンザフライ軌道修正のための予測経路計画という3つのモジュールを統合した。
包括的実験により,提案手法がほぼリアルタイムでその場での再構築と評価を実現し,また,適用範囲と再飛行コストを著しく低減する実用的なフィードバックを提供することが実証された。
データ収集、処理、3D再構成とアセスメント、オンラインフィードバックの統合によって、従来の受動的作業モードからよりインテリジェントで適応的な探索ワークフローへの移行の代替手段として、私たちのオンザフライフィードバックSfMが利用できます。
コードはhttps://github.com/IRIS-LAB-whu/OntheflySfMFeedbackで公開されている。
関連論文リスト
- An Efficient Occupancy World Model via Decoupled Dynamic Flow and Image-assisted Training [50.71892161377806]
DFIT-OccWorldは、分離されたダイナミックフローとイメージアシストトレーニング戦略を活用する、効率的な3D占有世界モデルである。
提案モデルでは, 静止ボクセルはポーズ変換により容易に得られるのに対し, 既存のボクセルフローを用いて既存の観測を歪曲することで, 将来のダイナミックボクセルを予測できる。
論文 参考訳(メタデータ) (2024-12-18T12:10:33Z) - FAST-LIVO2: Fast, Direct LiDAR-Inertial-Visual Odometry [28.606325312582218]
我々は,SLAMタスクにおける高精度かつ堅牢な状態推定を実現するために,高速かつ直接的LiDAR慣性・視覚的オドメトリーフレームワークであるFAST-LIVO2を提案する。
FAST-LIVO2はIMU、LiDAR、画像計測を逐次更新戦略で効率的に融合する。
本稿では,FAST-LIVO2のリアルタイムナビゲーション,空中マッピング,3次元モデルレンダリングの3つの応用例を示す。
論文 参考訳(メタデータ) (2024-08-26T06:01:54Z) - MaRINeR: Enhancing Novel Views by Matching Rendered Images with Nearby References [49.71130133080821]
MaRINeRは、近くのマッピング画像の情報を活用して、ターゲット視点のレンダリングを改善する方法である。
暗黙のシーン表現と暗黙のシーン表現の両方から、定量的な指標と定性的な例のレンダリングの改善を示す。
論文 参考訳(メタデータ) (2024-07-18T17:50:03Z) - Deep Learning-based Cross-modal Reconstruction of Vehicle Target from Sparse 3D SAR Image [6.499547636078961]
本稿では,光学情報を融合させることで,車両のスパース3D SAR画像の高精細化を実現する3D-SAR再構成ネットワーク(CMAR-Net)を提案する。
CMAR-Netは、高度にスパースな観察から得られたスパース3次元SAR画像を視覚的に構造化された3次元車両画像に再構成し、効率的なトレーニングを実現する。
論文 参考訳(メタデータ) (2024-06-06T15:18:59Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Few-shot Non-line-of-sight Imaging with Signal-surface Collaborative
Regularization [18.466941045530408]
非視線イメージング技術は、多重反射光からターゲットを再構成することを目的としている。
最小限の測定回数でノイズロバストを再現する信号表面の協調正規化フレームワークを提案する。
我々のアプローチは、救助活動や自律運転といったリアルタイム非視線画像アプリケーションにおいて大きな可能性を秘めている。
論文 参考訳(メタデータ) (2022-11-21T11:19:20Z) - Adversarial Domain Feature Adaptation for Bronchoscopic Depth Estimation [111.89519571205778]
そこで本研究では,深度推定のためのドメイン適応手法を提案する。
提案する2段階構造は,まず,ラベル付き合成画像を用いた深度推定ネットワークを教師付きで訓練する。
実験の結果,提案手法は実画像上でのネットワーク性能をかなりの差で向上させることがわかった。
論文 参考訳(メタデータ) (2021-09-24T08:11:34Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Mesh Reconstruction from Aerial Images for Outdoor Terrain Mapping Using
Joint 2D-3D Learning [12.741811850885309]
本稿では,無人航空機から得られた頭上画像を用いて,屋外地形のマッピングを行う。
飛行中の航空画像からの深度推定は困難です。
各カメラの局所メッシュを再構成する2d-3d学習手法を共同開発し,地球環境モデルとして構築する。
論文 参考訳(メタデータ) (2021-01-06T02:09:03Z) - SCFusion: Real-time Incremental Scene Reconstruction with Semantic
Completion [86.77318031029404]
本研究では,シーン再構成とセマンティックシーン補完を段階的かつリアルタイムに共同で行うフレームワークを提案する。
我々のフレームワークは、3Dグローバルモデルでセマンティックコンプリートを正確かつ効率的に融合させるために、占有マップを処理し、ボクセル状態を活用するように設計された新しいニューラルアーキテクチャに依存している。
論文 参考訳(メタデータ) (2020-10-26T15:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。