論文の概要: Ground material classification and for UAV-based photogrammetric 3D data
A 2D-3D Hybrid Approach
- arxiv url: http://arxiv.org/abs/2109.12221v1
- Date: Fri, 24 Sep 2021 22:29:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:31:50.163176
- Title: Ground material classification and for UAV-based photogrammetric 3D data
A 2D-3D Hybrid Approach
- Title(参考訳): UAVによる3次元データA 2D-3Dハイブリットアプローチのための地中物質分類
- Authors: Meida Chen, Andrew Feng, Yu Hou, Kyle McCullough, Pratusha Bhuvana
Prasad, Lucio Soibelman
- Abstract要約: 近年,物理環境を表す3次元仮想データを作成するために,多くの領域でフォトグラム法が広く用いられている。
これらの最先端技術は、迅速な3D戦場再建、仮想訓練、シミュレーションを目的として、アメリカ陸軍と海軍の注意を引き付けている。
- 参考スコア(独自算出の注目度): 1.3359609092684614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, photogrammetry has been widely used in many areas to create
photorealistic 3D virtual data representing the physical environment. The
innovation of small unmanned aerial vehicles (sUAVs) has provided additional
high-resolution imaging capabilities with low cost for mapping a relatively
large area of interest. These cutting-edge technologies have caught the US Army
and Navy's attention for the purpose of rapid 3D battlefield reconstruction,
virtual training, and simulations. Our previous works have demonstrated the
importance of information extraction from the derived photogrammetric data to
create semantic-rich virtual environments (Chen et al., 2019). For example, an
increase of simulation realism and fidelity was achieved by segmenting and
replacing photogrammetric trees with game-ready tree models. In this work, we
further investigated the semantic information extraction problem and focused on
the ground material segmentation and object detection tasks. The main
innovation of this work was that we leveraged both the original 2D images and
the derived 3D photogrammetric data to overcome the challenges faced when using
each individual data source. For ground material segmentation, we utilized an
existing convolutional neural network architecture (i.e., 3DMV) which was
originally designed for segmenting RGB-D sensed indoor data. We improved its
performance for outdoor photogrammetric data by introducing a depth pooling
layer in the architecture to take into consideration the distance between the
source images and the reconstructed terrain model. To test the performance of
our improved 3DMV, a ground truth ground material database was created using
data from the One World Terrain (OWT) data repository. Finally, a workflow for
importing the segmented ground materials into a virtual simulation scene was
introduced, and visual results are reported in this paper.
- Abstract(参考訳): 近年,物理環境を表す3D仮想データを作成するために,多くの領域でフォトグラム法が広く用いられている。
小型無人航空機(suavs)の革新は、比較的広い関心領域をマッピングするための低コストで高精細な撮像能力を提供した。
これらの最先端技術は、迅速な3D戦場再建、仮想訓練、シミュレーションを目的として、アメリカ陸軍と海軍の注目を集めている。
筆者らは, セマンティックリッチな仮想環境を構築するために, 抽出したフォトグラムデータから情報抽出の重要性を実証した(Chen et al., 2019)。
例えば、シミュレーションリアリズムと忠実度の増加は、フォトグラム木をゲーム対応ツリーモデルに分割し置き換えることによって達成された。
本研究では,セマンティック情報抽出の問題をさらに検討し,材料分割と物体検出の課題に焦点をあてた。
この研究の主な革新は、元の2d画像と派生した3dフォトグラムデータの両方を利用して、個々のデータソースを使用する際に直面する課題を克服したことです。
地中物質セグメンテーションのために,RGB-Dセンサを用いた屋内データのセグメンテーション用に設計された既存の畳み込みニューラルネットワークアーキテクチャ(3DMV)を利用した。
本研究では,地形モデルと原画像の距離を考慮に入れた奥行きプーリング層をアーキテクチャに導入することにより,屋外写真グラムデータの性能を向上した。
改良された3DMVの性能をテストするため,One World Terrain(OWT)データリポジトリのデータを用いて,地上の真理基盤データベースを構築した。
最後に,セグメント化された地盤を仮想シミュレーションシーンにインポートするワークフローを導入し,その視覚的結果を報告する。
関連論文リスト
- VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - Simple and Effective Synthesis of Indoor 3D Scenes [78.95697556834536]
1枚以上の画像から3D屋内シーンを没入する問題について検討する。
我々の狙いは、新しい視点から高解像度の画像とビデオを作成することである。
本稿では,不完全点雲の再投影から高解像度のRGB-D画像へ直接マップするイメージ・ツー・イメージのGANを提案する。
論文 参考訳(メタデータ) (2022-04-06T17:54:46Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - Semantic Segmentation and Data Fusion of Microsoft Bing 3D Cities and
Small UAV-based Photogrammetric Data [0.0]
著者らは、UAVベースのフォトグラムデータを用いてシミュレーション地形を作成するための、完全に自動化されたデータセグメンテーションとオブジェクト情報抽出フレームワークを発表した。
航空機による測光データにおけるデータ品質の問題を特定する。
著者らは、伝統的な反復的最近点(ICP)と抽出された意味情報を利用するデータ登録ワークフローも提案した。
論文 参考訳(メタデータ) (2020-08-21T18:56:05Z) - Generating synthetic photogrammetric data for training deep learning
based 3D point cloud segmentation models [0.0]
I/ITSEC 2019で著者らは、3Dフォトグラムのポイントクラウド/ミームをセグメント化し、オブジェクト情報を抽出する、完全に自動化されたワークフローを発表した。
最終的な目標は、現実的な仮想環境を作成し、シミュレーションに必要な情報を提供することである。
論文 参考訳(メタデータ) (2020-08-21T18:50:42Z) - Fully Automated Photogrammetric Data Segmentation and Object Information
Extraction Approach for Creating Simulation Terrain [0.0]
本研究は,全自動写真計測データセグメンテーションとオブジェクト情報抽出フレームワークを開発することを目的とする。
トレーニングやシミュレーションのためのリアルな仮想環境を作成する際のデータのユースケースを考えると、データのセグメンテーションとオブジェクト情報の抽出が不可欠である。
論文 参考訳(メタデータ) (2020-08-09T09:32:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。