論文の概要: Do You See What I See? Coordinating Multiple Aerial Cameras for Robot
Cinematography
- arxiv url: http://arxiv.org/abs/2011.05437v2
- Date: Wed, 31 Mar 2021 22:02:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 08:42:26.810685
- Title: Do You See What I See? Coordinating Multiple Aerial Cameras for Robot
Cinematography
- Title(参考訳): 私が見ているものが見えるか?
ロボットシネマトグラフィーのための複数の空中カメラの協調
- Authors: Arthur Bucker, Rogerio Bonatti and Sebastian Scherer
- Abstract要約: ショットの多様性を最大化し、衝突を回避しつつ、ダイナミックな目標を記録できるリアルタイムマルチUAVコーディネートシステムを開発した。
我々の調整方式は計算コストが低く、平均1.17ミリ秒で10秒の時間帯で3UAVのチームを計画できることが示される。
- 参考スコア(独自算出の注目度): 9.870369982132678
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Aerial cinematography is significantly expanding the capabilities of
film-makers. Recent progress in autonomous unmanned aerial vehicles (UAVs) has
further increased the potential impact of aerial cameras, with systems that can
safely track actors in unstructured cluttered environments. Professional
productions, however, require the use of multiple cameras simultaneously to
record different viewpoints of the same scene, which are edited into the final
footage either in real time or in post-production. Such extreme motion
coordination is particularly hard for unscripted action scenes, which are a
common use case of aerial cameras. In this work we develop a real-time
multi-UAV coordination system that is capable of recording dynamic targets
while maximizing shot diversity and avoiding collisions and mutual visibility
between cameras. We validate our approach in multiple cluttered environments of
a photo-realistic simulator, and deploy the system using two UAVs in real-world
experiments. We show that our coordination scheme has low computational cost
and takes only 1.17 ms on average to plan for a team of 3 UAVs over a 10 s time
horizon. Supplementary video: https://youtu.be/m2R3anv2ADE
- Abstract(参考訳): 航空撮影は映画製作者の能力を大きく拡大している。
近年の無人無人航空機(uavs)の進歩により、航空機カメラの潜在的な影響がさらに高まり、無構造な環境で俳優を安全に追跡できるシステムが開発された。
しかし、プロのプロダクションでは、同じシーンの異なる視点を記録するために複数のカメラを同時に使用する必要がある。
このような極端な動きの調整は、空中カメラの一般的なユースケースである無文字のアクションシーンでは特に難しい。
本研究では,ショットの多様性を最大化し,衝突やカメラ間の相互視認性を回避しつつ,ダイナミックな目標を記録できるリアルタイムマルチUAVコーディネートシステムの開発を行う。
我々は,光実写シミュレータの複数環境におけるアプローチを検証するとともに,実世界の実験において2つのUAVを用いてシステムを展開する。
我々の調整方式は計算コストが低く、平均1.17ミリ秒で10秒の時間帯で3UAVのチームを計画できることが示される。
補足ビデオ:https://youtu.be/m2R3anv2ADE
関連論文リスト
- Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - Learning Active Camera for Multi-Object Navigation [94.89618442412247]
ロボットアプリケーションでは、ロボットが複数のオブジェクトに自律的にナビゲートすることが不可欠だが、難しい。
既存のナビゲーション手法は主に固定カメラに焦点を当てており、アクティブカメラでナビゲートする試みはほとんど行われていない。
本稿では,アクティブカメラを用いて,複数の物体へのナビゲーションをより効率的に行うことを検討する。
論文 参考訳(メタデータ) (2022-10-14T04:17:30Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - AirPose: Multi-View Fusion Network for Aerial 3D Human Pose and Shape
Estimation [51.17610485589701]
本研究では,非構造屋外環境のための新しいマーカーレス3次元モーションキャプチャ(MoCap)システムを提案する。
AirPoseは複数の無人飛行カメラで撮影された画像を使って人間のポーズと形状を推定する。
AirPose自体は、事前校正に頼らずに、人のカメラを校正する。
論文 参考訳(メタデータ) (2022-01-20T09:46:20Z) - 3D Human Reconstruction in the Wild with Collaborative Aerial Cameras [3.3674370488883434]
本研究では,自然環境下での人体の動きを,専用マーカーを使わずに再現できるマルチカメラ制御のためのリアルタイム航空システムを提案する。
本研究では,障害物間における目標再構成品質を最適に設定するマルチロボット調整手法を開発した。
論文 参考訳(メタデータ) (2021-08-09T11:03:38Z) - On the Advantages of Multiple Stereo Vision Camera Designs for
Autonomous Drone Navigation [7.299239909796724]
我々は,最先端の計画およびマッピングアルゴリズムと組み合わせて,マルチカメラUAVの性能を示す。
我々は、自律ドローンによる検査タスクにアプローチを採用し、自律的な探索とマッピングのシナリオでそれらを評価します。
論文 参考訳(メタデータ) (2021-05-26T17:10:20Z) - Aerial-PASS: Panoramic Annular Scene Segmentation in Drone Videos [15.244418294614857]
小型、軽量、および360度の環状FoVの特性を有するパノラマ環状レンズ(PAL)を備えたUAVシステムを設計します。
軽量パノラマアニュラセマンティクスセグメンテーションニューラルネットワークモデルは、高精度かつリアルタイムなシーン解析を実現するために設計されている。
総合的な実験により,設計したシステムはパノラマシーン解析において満足できる性能を示す。
論文 参考訳(メタデータ) (2021-05-15T12:01:16Z) - Real-time dense 3D Reconstruction from monocular video data captured by
low-cost UAVs [0.3867363075280543]
リアルタイム3d再構築は,ナビゲーションや緊急時のライブ評価など,多数のアプリケーションにメリットがある環境の高速密マッピングを可能にする。
ほとんどのリアルタイム対応のアプローチとは対照的に、我々のアプローチは明示的な深度センサーを必要としない。
建物周辺を斜め視で飛行する無人航空機(UAV)の自己動作を利用して、選択された画像のカメラ軌道と深度の両方を、十分な新規な内容で推定します。
論文 参考訳(メタデータ) (2021-04-21T13:12:17Z) - Deep Multimodality Learning for UAV Video Aesthetic Quality Assessment [22.277636020333198]
UAVビデオの審美的品質評価のための深層マルチモーダリティ学習法を提案する。
この新しいマルチストリームフレームワークには,新たなモーションストリームネットワークが提案されている。
本稿では,UAVビデオグラデーション,プロのセグメント検出,審美に基づくUAVパス計画の3つの応用例を示す。
論文 参考訳(メタデータ) (2020-11-04T15:37:49Z) - Multi-Drone based Single Object Tracking with Agent Sharing Network [74.8198920355117]
マルチDroneシングルオブジェクト追跡データセットは、92のビデオクリップと113,918の高解像度フレーム、63のビデオクリップ、145,875の高解像度フレームで構成されている。
エージェント共有ネットワーク(ASNet)は、複数のドローンからターゲットの自己教師付きテンプレート共有とビューアウェア融合によって提案される。
論文 参考訳(メタデータ) (2020-03-16T03:27:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。