論文の概要: Methods for evaluating the resolution of 3D data derived from satellite images
- arxiv url: http://arxiv.org/abs/2506.11876v1
- Date: Fri, 13 Jun 2025 15:27:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.847215
- Title: Methods for evaluating the resolution of 3D data derived from satellite images
- Title(参考訳): 衛星画像からの3次元データの分解能評価法
- Authors: Christina Selby, Holden Bindl, Tyler Feldman, Andrew Skow, Nicolas Norena Acosta, Shea Hagstrom, Myron Brown,
- Abstract要約: 我々は,点雲,デジタル表面モデル,および3次元メッシュモデルの分解能を評価する方法を検討する。
本稿では,高分解能基準ライダーに基づく自動評価を可能にする3次元計測ツールについて述べる。
- 参考スコア(独自算出の注目度): 0.8166823398204148
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: 3D data derived from satellite images is essential for scene modeling applications requiring large-scale coverage or involving locations not accessible by airborne lidar or cameras. Measuring the resolution of this data is important for determining mission utility and tracking improvements. In this work, we consider methods to evaluate the resolution of point clouds, digital surface models, and 3D mesh models. We describe 3D metric evaluation tools and workflows that enable automated evaluation based on high-resolution reference airborne lidar, and we present results of analyses with data of varying quality.
- Abstract(参考訳): 衛星画像から得られた3Dデータは、大規模なカバレッジを必要とするシーンモデリングアプリケーションや、空中ライダーやカメラでアクセスできない場所において不可欠である。
このデータの解像度を測定することは、ミッションユーティリティの決定と改善の追跡に重要である。
本研究では,点雲,デジタル表面モデル,および3次元メッシュモデルの分解能を評価する手法を検討する。
本稿では,高分解能基準ライダーに基づく自動評価を可能にする3次元計測ツールとワークフローについて述べる。
関連論文リスト
- Simulation-Based Performance Evaluation of 3D Object Detection Methods with Deep Learning for a LiDAR Point Cloud Dataset in a SOTIF-related Use Case [0.0]
Intended Functionality (SOTIF) の安全性は、センサー性能の限界とディープラーニングに基づく物体検出の欠如に対処する。
本稿では,LiDARポイントクラウドデータセット上での3次元オブジェクト検出手法の適用性と性能評価について検討する。
論文 参考訳(メタデータ) (2025-03-05T14:32:32Z) - Surface Defect Identification using Bayesian Filtering on a 3D Mesh [10.3135376863545]
本稿では,CADによる表面欠陥の自動検出手法を提案する。
我々はCADモデルに埋め込まれたアプリオリ知識を活用し、ポイントクラウドデータと統合する。
論文 参考訳(メタデータ) (2025-01-30T12:49:17Z) - VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - A Quantitative Evaluation of Score Distillation Sampling Based
Text-to-3D [54.78611187426158]
本研究では,SDS手法の故障事例を定量的に分析し,人間の評価によって相互に検証する,より客観的な定量的評価指標を提案する。
計算効率の良い新しいベースラインモデルを設計することで,この解析の有効性を実証する。
論文 参考訳(メタデータ) (2024-02-29T00:54:09Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - Optimized Views Photogrammetry: Precision Analysis and A Large-scale
Case Study in Qingdao [4.520517727994592]
本研究では, 大規模3次元モデリングにおいて, 最適視光度測定の原理を示し, その精度とポテンシャルを検証した。
GCPを画像配向精度解析に、TLS点雲をモデル品質解析に利用することにより、最適化されたビュー・フォトグラムメトリーが安定した画像接続網を構築することができることを示す実験結果が得られた。
論文 参考訳(メタデータ) (2022-06-24T11:24:42Z) - Towards Model Generalization for Monocular 3D Object Detection [57.25828870799331]
我々は,Mono3Dオブジェクト検出に有効な統合カメラ一般化パラダイム(CGP)を提案する。
また,インスタンスレベルの拡張によりギャップを埋める2D-3D幾何一貫性オブジェクトスケーリング戦略(GCOS)を提案する。
DGMono3Dと呼ばれる手法は、評価された全てのデータセットに対して顕著な性能を達成し、SoTAの教師なしドメイン適応スキームを上回ります。
論文 参考訳(メタデータ) (2022-05-23T23:05:07Z) - Ground material classification and for UAV-based photogrammetric 3D data
A 2D-3D Hybrid Approach [1.3359609092684614]
近年,物理環境を表す3次元仮想データを作成するために,多くの領域でフォトグラム法が広く用いられている。
これらの最先端技術は、迅速な3D戦場再建、仮想訓練、シミュレーションを目的として、アメリカ陸軍と海軍の注意を引き付けている。
論文 参考訳(メタデータ) (2021-09-24T22:29:26Z) - Aug3D-RPN: Improving Monocular 3D Object Detection by Synthetic Images
with Virtual Depth [64.29043589521308]
仮想深度で画像を合成することでトレーニングデータを増強するレンダリングモジュールを提案する。
レンダリングモジュールは、RGB画像と対応するスパース深度画像とを入力として、さまざまなフォトリアリスティック合成画像を出力する。
さらに,深度推定タスクを通じて共同で最適化することで,検出モデルを改善する補助モジュールを導入する。
論文 参考訳(メタデータ) (2021-07-28T11:00:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。