論文の概要: UAV-Human: A Large Benchmark for Human Behavior Understanding with
Unmanned Aerial Vehicles
- arxiv url: http://arxiv.org/abs/2104.00946v1
- Date: Fri, 2 Apr 2021 08:54:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 13:48:46.138449
- Title: UAV-Human: A Large Benchmark for Human Behavior Understanding with
Unmanned Aerial Vehicles
- Title(参考訳): UAV-Human:無人航空機による人間の行動理解のための大規模なベンチマーク
- Authors: Tianjiao Li and Jun Liu and Wei Zhang and Yun Ni and Wenqian Wang and
Zhiheng Li
- Abstract要約: UAVを用いた人間の行動理解のための新しいベンチマークUAVHumanを提案する。
本データセットは,67,428件のマルチモーダルビデオシーケンスと119件のアクション認識対象を含む。
フラットRGB映像による学習変換により,魚眼映像の歪みを緩和する魚眼行動認識手法を提案する。
- 参考スコア(独自算出の注目度): 12.210724541266183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human behavior understanding with unmanned aerial vehicles (UAVs) is of great
significance for a wide range of applications, which simultaneously brings an
urgent demand of large, challenging, and comprehensive benchmarks for the
development and evaluation of UAV-based models. However, existing benchmarks
have limitations in terms of the amount of captured data, types of data
modalities, categories of provided tasks, and diversities of subjects and
environments. Here we propose a new benchmark - UAVHuman - for human behavior
understanding with UAVs, which contains 67,428 multi-modal video sequences and
119 subjects for action recognition, 22,476 frames for pose estimation, 41,290
frames and 1,144 identities for person re-identification, and 22,263 frames for
attribute recognition. Our dataset was collected by a flying UAV in multiple
urban and rural districts in both daytime and nighttime over three months,
hence covering extensive diversities w.r.t subjects, backgrounds,
illuminations, weathers, occlusions, camera motions, and UAV flying attitudes.
Such a comprehensive and challenging benchmark shall be able to promote the
research of UAV-based human behavior understanding, including action
recognition, pose estimation, re-identification, and attribute recognition.
Furthermore, we propose a fisheye-based action recognition method that
mitigates the distortions in fisheye videos via learning unbounded
transformations guided by flat RGB videos. Experiments show the efficacy of our
method on the UAV-Human dataset.
- Abstract(参考訳): 無人航空機(UAV)による人間の行動理解は、広範囲のアプリケーションにおいて非常に重要であり、同時にUAVベースのモデルの開発と評価のための大規模で挑戦的で包括的なベンチマークの緊急需要をもたらす。
しかし、既存のベンチマークでは、キャプチャされたデータ量、データモダリティの種類、提供されたタスクのカテゴリ、主題と環境の多様性の制限がある。
ここでは,67,428のマルチモーダルビデオシーケンスと119の被験者による行動認識,ポーズ推定用22,476フレーム,人物再同定用41,290フレームと1,144アイデンティティ,属性認識用22,263フレームを含む,uavsを用いた人間の行動理解のための新しいベンチマーク,uavhumanを提案する。
我々のデータセットは、昼間と夜間に複数の都市・農村部で3ヶ月にわたってUAVによって収集されたため、被写体、背景、照明、天候、オクルージョン、カメラモーション、UAV飛行姿勢の広範囲にわたる多様性を網羅した。
このような包括的で挑戦的なベンチマークは、行動認識、ポーズ推定、再識別、属性認識を含む、UAVに基づく人間の行動理解の研究を促進することができる。
さらに,魚眼映像の歪みを緩和し,平らなRGB動画で案内される非有界変換を学習する魚眼映像に基づく行動認識手法を提案する。
実験の結果,UAV-Humanデータセットの有効性が示された。
関連論文リスト
- Real Time Human Detection by Unmanned Aerial Vehicles [0.0]
公安のための重要な2つのデータソースは、無人航空機(UAV)によって生成された熱赤外(TIR)リモートセンシング写真とビデオである。
ターゲットの小型化,複雑なシーン情報,視聴可能なビデオに対する低解像度化,ラベル付きデータセットやトレーニングモデルのデジェスなどにより,オブジェクト検出は依然として困難である。
本研究では,写真やビデオのためのUAV TIRオブジェクト検出フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-06T18:28:01Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - Aerial-Ground Person Re-ID [43.241435887373804]
我々は,航空カメラと地上カメラをまたいで,人による再IDマッチングを行う新しいベンチマークデータセット AG-ReID を提案する。
データセットには、388のアイデンティティの21,983のイメージと、各IDに対する15のソフト属性が含まれている。
データは、高度15~45mのUAVと、大学のキャンパスで地上のCCTVカメラによって収集されました。
論文 参考訳(メタデータ) (2023-03-15T13:07:21Z) - MITFAS: Mutual Information based Temporal Feature Alignment and Sampling
for Aerial Video Action Recognition [59.905048445296906]
UAVビデオにおける行動認識のための新しいアプローチを提案する。
我々は、時間領域における人間の行動や動きに対応する領域を計算・調整するために、相互情報の概念を用いる。
実際には、最先端の手法よりもTop-1の精度が18.9%向上している。
論文 参考訳(メタデータ) (2023-03-05T04:05:17Z) - Uncertainty Aware Multitask Pyramid Vision Transformer For UAV-Based
Object Re-Identification [38.19907319079833]
UAVベースのオブジェクトReIDのバックボーンとして、畳み込みのない新しいマルチスケールアーキテクチャであるPraamid Vision Transformer(PVT)を用いるマルチタスク学習手法を提案する。
クラス内変動の不確実性モデリングにより、不確実性認識オブジェクトIDとカメラID情報の両方を用いて、提案手法を協調的に最適化することができる。
論文 参考訳(メタデータ) (2022-09-19T00:27:07Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - AVisT: A Benchmark for Visual Object Tracking in Adverse Visibility [125.77396380698639]
AVisTは、視認性の悪いさまざまなシナリオにおける視覚的トラッキングのためのベンチマークである。
AVisTは、80kの注釈付きフレームを持つ120の挑戦的なシーケンスで構成されており、18の多様なシナリオにまたがっている。
我々は、属性間でのトラッキング性能を詳細に分析し、AVisTで17の人気のトラッカーと最近のトラッカーをベンチマークした。
論文 参考訳(メタデータ) (2022-08-14T17:49:37Z) - A Multi-viewpoint Outdoor Dataset for Human Action Recognition [3.522154868524807]
我々は,YouTubeと当社のドローンから収集した多視点屋外行動認識データセットを提案する。
データセットは、20の動的なヒューマンアクションクラス、2324のビデオクリップ、503086フレームで構成されている。
全体のベースライン動作認識精度は74.0%である。
論文 参考訳(メタデータ) (2021-10-07T14:50:43Z) - UAV-ReID: A Benchmark on Unmanned Aerial Vehicle Re-identification [21.48667873335246]
近年のディープラーニング開発により、視覚ベースの対UAVシステムは単一のカメラでUAVを検出し、追跡することができる。
単一のカメラのカバー範囲は限られており、カメラ間のUAVにマッチするマルチカメラ構成が必要である。
我々は,この新興地域での機械学習ソリューションの開発を容易にする,UAV-reIDという新しいUAV再識別データセットを提案する。
論文 参考訳(メタデータ) (2021-04-13T14:13:09Z) - A Flow Base Bi-path Network for Cross-scene Video Crowd Understanding in
Aerial View [93.23947591795897]
本稿では,これらの課題に対処し,ドローンから収集した視覚的データから参加者を自動的に理解する。
クロスシーンテストで発生する背景雑音を軽減するために, 二重ストリーム群カウントモデルを提案する。
極暗環境下での集団密度推定問題に対処するために,ゲームグランドセフトオートV(GTAV)によって生成された合成データを導入する。
論文 参考訳(メタデータ) (2020-09-29T01:48:24Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。