論文の概要: Deep Multimodality Learning for UAV Video Aesthetic Quality Assessment
- arxiv url: http://arxiv.org/abs/2011.02356v1
- Date: Wed, 4 Nov 2020 15:37:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 22:33:49.687549
- Title: Deep Multimodality Learning for UAV Video Aesthetic Quality Assessment
- Title(参考訳): UAV映像の美的品質評価のための深層マルチモーダリティ学習
- Authors: Qi Kuang, Xin Jin, Qinping Zhao, Bin Zhou
- Abstract要約: UAVビデオの審美的品質評価のための深層マルチモーダリティ学習法を提案する。
この新しいマルチストリームフレームワークには,新たなモーションストリームネットワークが提案されている。
本稿では,UAVビデオグラデーション,プロのセグメント検出,審美に基づくUAVパス計画の3つの応用例を示す。
- 参考スコア(独自算出の注目度): 22.277636020333198
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the growing number of unmanned aerial vehicles (UAVs) and aerial
videos, there is a paucity of studies focusing on the aesthetics of aerial
videos that can provide valuable information for improving the aesthetic
quality of aerial photography. In this article, we present a method of deep
multimodality learning for UAV video aesthetic quality assessment. More
specifically, a multistream framework is designed to exploit aesthetic
attributes from multiple modalities, including spatial appearance, drone camera
motion, and scene structure. A novel specially designed motion stream network
is proposed for this new multistream framework. We construct a dataset with
6,000 UAV video shots captured by drone cameras. Our model can judge whether a
UAV video was shot by professional photographers or amateurs together with the
scene type classification. The experimental results reveal that our method
outperforms the video classification methods and traditional SVM-based methods
for video aesthetics. In addition, we present three application examples of UAV
video grading, professional segment detection and aesthetic-based UAV path
planning using the proposed method.
- Abstract(参考訳): 無人航空機(UAV)や空中ビデオは増え続けているが、空中映像の美学に焦点を当てた研究は、航空写真の美的品質を改善するための貴重な情報を提供する。
本稿では,UAV映像の美的品質評価のための深層多目的学習手法を提案する。
より具体的には、マルチストリームフレームワークは、空間的な外観、ドローンカメラの動き、シーン構造など、複数のモードから美的属性を利用するように設計されている。
この新しいマルチストリームフレームワークには,新たなモーションストリームネットワークが提案されている。
ドローンカメラで撮影した6000個のUAV映像でデータセットを構築した。
我々のモデルは、UAVビデオがプロの写真家やアマチュアによって撮影されたかどうかをシーンタイプ分類と共に判断することができる。
実験の結果,本手法はビデオの分類法や従来のSVMに基づくビデオ美学よりも優れていた。
さらに,提案手法を用いたuavビデオグレーティング,プロセグメンテーション検出,美学に基づくuavパス計画の3つの応用例を示す。
関連論文リスト
- Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - Learning to Compress Unmanned Aerial Vehicle (UAV) Captured Video:
Benchmark and Analysis [54.07535860237662]
本稿では,UAVビデオ符号化学習のための新しいタスクを提案し,そのようなタスクに対する包括的で体系的なベンチマークを構築する。
このベンチマークは、ドローンプラットフォームにおけるビデオコーディングの研究と開発を加速させるものと期待されている。
論文 参考訳(メタデータ) (2023-01-15T15:18:02Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Aerial-PASS: Panoramic Annular Scene Segmentation in Drone Videos [15.244418294614857]
小型、軽量、および360度の環状FoVの特性を有するパノラマ環状レンズ(PAL)を備えたUAVシステムを設計します。
軽量パノラマアニュラセマンティクスセグメンテーションニューラルネットワークモデルは、高精度かつリアルタイムなシーン解析を実現するために設計されている。
総合的な実験により,設計したシステムはパノラマシーン解析において満足できる性能を示す。
論文 参考訳(メタデータ) (2021-05-15T12:01:16Z) - Real-time dense 3D Reconstruction from monocular video data captured by
low-cost UAVs [0.3867363075280543]
リアルタイム3d再構築は,ナビゲーションや緊急時のライブ評価など,多数のアプリケーションにメリットがある環境の高速密マッピングを可能にする。
ほとんどのリアルタイム対応のアプローチとは対照的に、我々のアプローチは明示的な深度センサーを必要としない。
建物周辺を斜め視で飛行する無人航空機(UAV)の自己動作を利用して、選択された画像のカメラ軌道と深度の両方を、十分な新規な内容で推定します。
論文 参考訳(メタデータ) (2021-04-21T13:12:17Z) - Broaden Your Views for Self-Supervised Video Learning [97.52216510672251]
ビデオのための自己教師型学習フレームワークBraVeを紹介する。
BraVeでは、ビューの1つがビデオの狭い一時的なウィンドウにアクセスでき、もう1つのビューはビデオコンテンツに広くアクセスできます。
BraVeが標準ビデオおよびオーディオ分類ベンチマークで自己監督表現学習の最先端の結果を達成することを実証します。
論文 参考訳(メタデータ) (2021-03-30T17:58:46Z) - Few-Shot Learning for Video Object Detection in a Transfer-Learning
Scheme [70.45901040613015]
ビデオ物体検出のための数発学習の新たな課題について検討する。
我々は,多数のベースクラスオブジェクトに対して映像物体検出を効果的に訓練するトランスファー学習フレームワークと,ノベルクラスオブジェクトのいくつかのビデオクリップを用いる。
論文 参考訳(メタデータ) (2021-03-26T20:37:55Z) - Anti-UAV: A Large Multi-Modal Benchmark for UAV Tracking [59.06167734555191]
Unmanned Aerial Vehicle (UAV)は、商業とレクリエーションの両方に多くの応用を提供している。
我々は、UAVを追跡し、位置や軌道などの豊富な情報を提供するという課題を考察する。
300以上のビデオペアが580k以上の手動で注釈付きバウンディングボックスを含むデータセット、Anti-UAVを提案します。
論文 参考訳(メタデータ) (2021-01-21T07:00:15Z) - Self-supervised monocular depth estimation from oblique UAV videos [8.876469413317341]
本論文では, 深層学習を用いて, 単一のUAV空中画像から深度を推定する。
連続時間フレームから情報を抽出する2次元CNNエンコーダと3次元CNNデコーダを備えた新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-19T14:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。