論文の概要: A simulation environment for drone cinematography
- arxiv url: http://arxiv.org/abs/2010.01315v1
- Date: Sat, 3 Oct 2020 09:57:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 11:40:41.104488
- Title: A simulation environment for drone cinematography
- Title(参考訳): ドローン撮影のためのシミュレーション環境
- Authors: Fan Zhang, David Hall, Tao Xu, Stephen Boyle and David Bull
- Abstract要約: 環境画像の取得方法,3次元再構成(フォトグラム),前景資産の創出について述べる。
このツールは、フォアグラウンドアセットやイベントダイナミクスに関連するプログラム可能なシナリオとともに、フリーフライとパラメータ可能な標準ショットタイプの両方をサポートする。
- 参考スコア(独自算出の注目度): 7.324046599137339
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we present a workflow for the simulation of drone operations
exploiting realistic background environments constructed within Unreal Engine 4
(UE4). Methods for environmental image capture, 3D reconstruction
(photogrammetry) and the creation of foreground assets are presented along with
a flexible and user-friendly simulation interface. Given the geographical
location of the selected area and the camera parameters employed, the scanning
strategy and its associated flight parameters are first determined for image
capture. Source imagery can be extracted from virtual globe software or
obtained through aerial photography of the scene (e.g. using drones). The
latter case is clearly more time consuming but can provide enhanced detail,
particularly where coverage of virtual globe software is limited. The captured
images are then used to generate 3D background environment models employing
photogrammetry software. The reconstructed 3D models are then imported into the
simulation interface as background environment assets together with appropriate
foreground object models as a basis for shot planning and rehearsal. The tool
supports both free-flight and parameterisable standard shot types along with
programmable scenarios associated with foreground assets and event dynamics. It
also supports the exporting of flight plans. Camera shots can also be designed
to provide suitable coverage of any landmarks which need to appear in-shot.
This simulation tool will contribute to enhanced productivity, improved safety
(awareness and mitigations for crowds and buildings), improved confidence of
operators and directors and ultimately enhanced quality of viewer experience.
- Abstract(参考訳): 本稿では,unreal engine 4 (ue4) で構築された実環境を利用したドローン操作シミュレーションのワークフローを提案する。
フレキシブルでユーザフレンドリーなシミュレーションインタフェースとともに、環境画像キャプチャー、3D再構成(フォトグラム)、および前景資産の作成方法を示す。
選択された領域の地理的位置とカメラパラメーターを考慮し、まず画像キャプチャーのために走査戦略とその関連する飛行パラメータを決定する。
ソース画像は仮想地球ソフトウェアから抽出したり、シーンの空中写真(ドローンなど)を通じて取得することができる。
後者のケースは明らかに時間がかかりますが、特に仮想地球ソフトウェアのカバレッジが制限されている場合に、詳細を拡張できます。
撮影された画像は、フォトグラメトリーソフトウェアを使用した3dバックグラウンド環境モデルを生成するために使用される。
再構成された3Dモデルは、撮影計画とリハーサルの基礎となる適切な前景オブジェクトモデルとともに、背景環境資産としてシミュレーションインターフェースにインポートされる。
このツールは、フリーフライトとパラメータ可能な標準ショットタイプの両方をサポートし、前景アセットとイベントダイナミクスに関連するプログラマブルなシナリオをサポートする。
飛行計画の輸出も支援している。
カメラショットは、撮影中に現れる必要のあるランドマークを適切にカバーするように設計することもできる。
このシミュレーションツールは生産性の向上、安全性の向上(群衆や建物の認識と緩和)、オペレータやディレクターの信頼向上、最終的にはビューアエクスペリエンスの質向上に寄与する。
関連論文リスト
- URDFormer: A Pipeline for Constructing Articulated Simulation Environments from Real-World Images [39.0780707100513]
そこで本研究では,実世界の画像からキネマティック構造と動的構造を合成したシミュレーションシーンを生成するエンドツーエンドパイプラインを提案する。
そこで本研究は,大規模シミュレーション環境のためのパイプラインと,ロバストなロボット制御ポリシをトレーニングするための統合システムの両方を提供する。
論文 参考訳(メタデータ) (2024-05-19T20:01:29Z) - EVI-SAM: Robust, Real-time, Tightly-coupled Event-Visual-Inertial State Estimation and 3D Dense Mapping [5.154689086578339]
単眼イベントカメラを用いた6自由度ポーズトラッキングと3次元再構成の課題に対処するために,EVI-SAMを提案する。
新しいイベントベースのハイブリッドトラッキングフレームワークは、特徴マッチングの堅牢性と直接アライメントの精度を活用することで、ポーズを推定するように設計されている。
私たちの知る限りでは、イベントベースの高密度マッピングを実現するための非学習作業としてはこれが初めてです。
論文 参考訳(メタデータ) (2023-12-19T07:39:45Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - 3D Reconstruction of Spherical Images based on Incremental Structure
from Motion [2.6432771146480283]
本研究では, 球面対応を用いた相対配向アルゴリズム, シーンと球面間の3次元対応を用いた絶対配向, BA最適化のためのコスト関数について検討した。
上記のアルゴリズムを用いて,球面画像に対して段階的SfM(Structure from Motion)ワークフローを提案する。
論文 参考訳(メタデータ) (2023-06-22T09:49:28Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - 3D reconstruction from spherical images: A review of techniques,
applications, and prospects [2.6432771146480283]
3次元再構成は、現代のフォトグラムシステムにおいてますます重要な役割を担っている。
プロ用および消費者向けの球面カメラの急速な進化と広範囲な利用により、球面画像は都市と屋内のシーンの3Dモデリングに大きな可能性を示している。
本研究は,データ取得,特徴検出とマッチング,画像配向,密マッチングの観点から,球面画像の3次元再構成技術の現状を詳細に調査する。
論文 参考訳(メタデータ) (2023-02-09T08:45:27Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - Simple and Effective Synthesis of Indoor 3D Scenes [78.95697556834536]
1枚以上の画像から3D屋内シーンを没入する問題について検討する。
我々の狙いは、新しい視点から高解像度の画像とビデオを作成することである。
本稿では,不完全点雲の再投影から高解像度のRGB-D画像へ直接マップするイメージ・ツー・イメージのGANを提案する。
論文 参考訳(メタデータ) (2022-04-06T17:54:46Z) - Ground material classification and for UAV-based photogrammetric 3D data
A 2D-3D Hybrid Approach [1.3359609092684614]
近年,物理環境を表す3次元仮想データを作成するために,多くの領域でフォトグラム法が広く用いられている。
これらの最先端技術は、迅速な3D戦場再建、仮想訓練、シミュレーションを目的として、アメリカ陸軍と海軍の注意を引き付けている。
論文 参考訳(メタデータ) (2021-09-24T22:29:26Z) - GeoSim: Photorealistic Image Simulation with Geometry-Aware Composition [81.24107630746508]
GeoSimは、新しい都市の運転シーンを合成するジオメトリ認識の画像合成プロセスです。
まず、センサーデータからリアルな形状と外観の両方を備えた多様な3Dオブジェクトのバンクを構築します。
得られた合成画像は、フォトリアリズム、トラフィック認識、幾何学的一貫性があり、画像シミュレーションが複雑なユースケースにスケールできる。
論文 参考訳(メタデータ) (2021-01-16T23:00:33Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。