論文の概要: Do You See What I See? Coordinating Multiple Aerial Cameras for Robot
Cinematography
- arxiv url: http://arxiv.org/abs/2011.05437v2
- Date: Wed, 31 Mar 2021 22:02:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 08:42:26.810685
- Title: Do You See What I See? Coordinating Multiple Aerial Cameras for Robot
Cinematography
- Title(参考訳): 私が見ているものが見えるか?
ロボットシネマトグラフィーのための複数の空中カメラの協調
- Authors: Arthur Bucker, Rogerio Bonatti and Sebastian Scherer
- Abstract要約: ショットの多様性を最大化し、衝突を回避しつつ、ダイナミックな目標を記録できるリアルタイムマルチUAVコーディネートシステムを開発した。
我々の調整方式は計算コストが低く、平均1.17ミリ秒で10秒の時間帯で3UAVのチームを計画できることが示される。
- 参考スコア(独自算出の注目度): 9.870369982132678
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Aerial cinematography is significantly expanding the capabilities of
film-makers. Recent progress in autonomous unmanned aerial vehicles (UAVs) has
further increased the potential impact of aerial cameras, with systems that can
safely track actors in unstructured cluttered environments. Professional
productions, however, require the use of multiple cameras simultaneously to
record different viewpoints of the same scene, which are edited into the final
footage either in real time or in post-production. Such extreme motion
coordination is particularly hard for unscripted action scenes, which are a
common use case of aerial cameras. In this work we develop a real-time
multi-UAV coordination system that is capable of recording dynamic targets
while maximizing shot diversity and avoiding collisions and mutual visibility
between cameras. We validate our approach in multiple cluttered environments of
a photo-realistic simulator, and deploy the system using two UAVs in real-world
experiments. We show that our coordination scheme has low computational cost
and takes only 1.17 ms on average to plan for a team of 3 UAVs over a 10 s time
horizon. Supplementary video: https://youtu.be/m2R3anv2ADE
- Abstract(参考訳): 航空撮影は映画製作者の能力を大きく拡大している。
近年の無人無人航空機(uavs)の進歩により、航空機カメラの潜在的な影響がさらに高まり、無構造な環境で俳優を安全に追跡できるシステムが開発された。
しかし、プロのプロダクションでは、同じシーンの異なる視点を記録するために複数のカメラを同時に使用する必要がある。
このような極端な動きの調整は、空中カメラの一般的なユースケースである無文字のアクションシーンでは特に難しい。
本研究では,ショットの多様性を最大化し,衝突やカメラ間の相互視認性を回避しつつ,ダイナミックな目標を記録できるリアルタイムマルチUAVコーディネートシステムの開発を行う。
我々は,光実写シミュレータの複数環境におけるアプローチを検証するとともに,実世界の実験において2つのUAVを用いてシステムを展開する。
我々の調整方式は計算コストが低く、平均1.17ミリ秒で10秒の時間帯で3UAVのチームを計画できることが示される。
補足ビデオ:https://youtu.be/m2R3anv2ADE
関連論文リスト
- Investigating Event-Based Cameras for Video Frame Interpolation in Sports [59.755469098797406]
本稿では,スポーツスローモーションビデオを生成するためのイベントベースビデオフレーム補間(VFI)モデルについて検討する。
特に,スポーツ映像を撮影するためのRGBとイベントベースカメラを含むバイカメラ記録装置の設計と実装を行い,両カメラの時間的整列と空間的登録を行う。
実験により,市販のイベントベースVFIモデルであるTimeLensが,スポーツビデオのスローモーション映像を効果的に生成できることが実証された。
論文 参考訳(メタデータ) (2024-07-02T15:39:08Z) - Image Conductor: Precision Control for Interactive Video Synthesis [90.2353794019393]
映画製作とアニメーション制作は、しばしばカメラの遷移と物体の動きを調整するための洗練された技術を必要とする。
イメージコンダクタ(Image Conductor)は、カメラトランジションとオブジェクトの動きを正確に制御し、単一の画像からビデオアセットを生成する方法である。
論文 参考訳(メタデータ) (2024-06-21T17:55:05Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - Automatic Camera Trajectory Control with Enhanced Immersion for Virtual Cinematography [23.070207691087827]
実世界のシネマトグラフィーのルールは、監督がカメラをアクターと包括的に同期させることで没入感を生み出すことができることを示している。
この戦略に触発されて,アクターとカメラの3面の同期を可能にするディープカメラ制御フレームワークを提案する。
提案手法は,高品質な没入型撮影映像を定量的かつ質的に生成する。
論文 参考訳(メタデータ) (2023-03-29T22:02:15Z) - Learning Active Camera for Multi-Object Navigation [94.89618442412247]
ロボットアプリケーションでは、ロボットが複数のオブジェクトに自律的にナビゲートすることが不可欠だが、難しい。
既存のナビゲーション手法は主に固定カメラに焦点を当てており、アクティブカメラでナビゲートする試みはほとんど行われていない。
本稿では,アクティブカメラを用いて,複数の物体へのナビゲーションをより効率的に行うことを検討する。
論文 参考訳(メタデータ) (2022-10-14T04:17:30Z) - AirPose: Multi-View Fusion Network for Aerial 3D Human Pose and Shape
Estimation [51.17610485589701]
本研究では,非構造屋外環境のための新しいマーカーレス3次元モーションキャプチャ(MoCap)システムを提案する。
AirPoseは複数の無人飛行カメラで撮影された画像を使って人間のポーズと形状を推定する。
AirPose自体は、事前校正に頼らずに、人のカメラを校正する。
論文 参考訳(メタデータ) (2022-01-20T09:46:20Z) - 3D Human Reconstruction in the Wild with Collaborative Aerial Cameras [3.3674370488883434]
本研究では,自然環境下での人体の動きを,専用マーカーを使わずに再現できるマルチカメラ制御のためのリアルタイム航空システムを提案する。
本研究では,障害物間における目標再構成品質を最適に設定するマルチロボット調整手法を開発した。
論文 参考訳(メタデータ) (2021-08-09T11:03:38Z) - On the Advantages of Multiple Stereo Vision Camera Designs for
Autonomous Drone Navigation [7.299239909796724]
我々は,最先端の計画およびマッピングアルゴリズムと組み合わせて,マルチカメラUAVの性能を示す。
我々は、自律ドローンによる検査タスクにアプローチを採用し、自律的な探索とマッピングのシナリオでそれらを評価します。
論文 参考訳(メタデータ) (2021-05-26T17:10:20Z) - Aerial-PASS: Panoramic Annular Scene Segmentation in Drone Videos [15.244418294614857]
小型、軽量、および360度の環状FoVの特性を有するパノラマ環状レンズ(PAL)を備えたUAVシステムを設計します。
軽量パノラマアニュラセマンティクスセグメンテーションニューラルネットワークモデルは、高精度かつリアルタイムなシーン解析を実現するために設計されている。
総合的な実験により,設計したシステムはパノラマシーン解析において満足できる性能を示す。
論文 参考訳(メタデータ) (2021-05-15T12:01:16Z) - Deep Multimodality Learning for UAV Video Aesthetic Quality Assessment [22.277636020333198]
UAVビデオの審美的品質評価のための深層マルチモーダリティ学習法を提案する。
この新しいマルチストリームフレームワークには,新たなモーションストリームネットワークが提案されている。
本稿では,UAVビデオグラデーション,プロのセグメント検出,審美に基づくUAVパス計画の3つの応用例を示す。
論文 参考訳(メタデータ) (2020-11-04T15:37:49Z) - Multi-Drone based Single Object Tracking with Agent Sharing Network [74.8198920355117]
マルチDroneシングルオブジェクト追跡データセットは、92のビデオクリップと113,918の高解像度フレーム、63のビデオクリップ、145,875の高解像度フレームで構成されている。
エージェント共有ネットワーク(ASNet)は、複数のドローンからターゲットの自己教師付きテンプレート共有とビューアウェア融合によって提案される。
論文 参考訳(メタデータ) (2020-03-16T03:27:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。