論文の概要: NOMAD: A Natural, Occluded, Multi-scale Aerial Dataset, for Emergency Response Scenarios
- arxiv url: http://arxiv.org/abs/2309.09518v2
- Date: Sat, 07 Dec 2024 05:27:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:49:25.272597
- Title: NOMAD: A Natural, Occluded, Multi-scale Aerial Dataset, for Emergency Response Scenarios
- Title(参考訳): NOMAD:緊急対応シナリオのための自然に蓄積されたマルチスケール航空データセット
- Authors: Arturo Miguel Russell Bernal, Walter Scheirer, Jane Cleland-Huang,
- Abstract要約: Natural, Occluded, Multi-scale Aerial dataset (NOMAD) は、人体検知のためのベンチマークデータセットである。
NOMADは100種類のアクターで構成されており、全て歩いたり、横たわったり、隠れたりしている。
42,825フレームを含み、5.4kの解像度ビデオから抽出され、バウンディングボックスと10の異なる視界レベルを示すラベルで手動で注釈付けされている。
- 参考スコア(独自算出の注目度): 41.03292974500013
- License:
- Abstract: With the increasing reliance on small Unmanned Aerial Systems (sUAS) for Emergency Response Scenarios, such as Search and Rescue, the integration of computer vision capabilities has become a key factor in mission success. Nevertheless, computer vision performance for detecting humans severely degrades when shifting from ground to aerial views. Several aerial datasets have been created to mitigate this problem, however, none of them has specifically addressed the issue of occlusion, a critical component in Emergency Response Scenarios. Natural, Occluded, Multi-scale Aerial Dataset (NOMAD) presents a benchmark for human detection under occluded aerial views, with five different aerial distances and rich imagery variance. NOMAD is composed of 100 different Actors, all performing sequences of walking, laying and hiding. It includes 42,825 frames, extracted from 5.4k resolution videos, and manually annotated with a bounding box and a label describing 10 different visibility levels, categorized according to the percentage of the human body visible inside the bounding box. This allows computer vision models to be evaluated on their detection performance across different ranges of occlusion. NOMAD is designed to improve the effectiveness of aerial search and rescue and to enhance collaboration between sUAS and humans, by providing a new benchmark dataset for human detection under occluded aerial views. Full dataset can be found at: https://github.com/ArtRuss/NOMAD.
- Abstract(参考訳): 捜索・救助などの緊急対応シナリオに対する小型無人航空システム(sUAS)への依存が高まり、コンピュータビジョン能力の統合がミッションの成功の重要な要因となっている。
それでも、人間を検知するコンピュータビジョン性能は、地上から空中への視界シフト時に著しく低下する。
この問題を軽減するためにいくつかの航空データセットが作成されているが、緊急対応シナリオにおける重要な要素である閉塞の問題に特に対処する者はいない。
NOMAD(Natural、Occluded、Multi-scale Aerial Dataset)は、5つの異なる空中距離とリッチな画像のばらつきを持つ、閉鎖された空中ビュー下での人間の検出のためのベンチマークを提示する。
NOMADは100種類のアクターで構成されており、全て歩いたり、横たわったり、隠れたりしている。
解像度5.4kのビデオから抽出された42,825フレームを含み、バウンディングボックスと10の異なる視認レベルを示すラベルを手動で注釈付けし、バウンディングボックスの内部に見える人体の割合に応じて分類する。
これにより、コンピュータビジョンモデルは、様々な閉塞範囲で検出性能を評価することができる。
NOMADは、空中視下での人間の検出のための新しいベンチマークデータセットを提供することで、航空捜索と救助の有効性を改善し、sUASと人間との協力を強化するように設計されている。
完全なデータセットは、https://github.com/ArtRuss/NOMADで見ることができる。
関連論文リスト
- Commissioning An All-Sky Infrared Camera Array for Detection Of Airborne Objects [0.11703603440337004]
ガリレオ計画では、空を継続的に監視する多モード地上観測所を設計、建設、委託している。
鍵となる機器の1つは、8つの冷却されていない長波長のFLIRボソン640カメラを使用した全天型赤外線カメラアレイである。
各種気象条件に対する受入率(観測可能な航空機等)と検出効率(検出に成功している航空機等)を報告する。
おもちゃのアウトリーチは2次元再構成トラジェクトリーフラッグの大きな不純物に焦点を絞ったもので、トラジェクトリーの約16%をアウトリーチとして用いた。
論文 参考訳(メタデータ) (2024-11-12T17:31:51Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - Temporal Shift -- Multi-Objective Loss Function for Improved Anomaly
Fall Detection [3.813649699234981]
逐次フレームのウィンドウ内における将来のフレームと再構成フレームの両方を予測することを目的とした,Temporal Shiftと呼ばれる多目的損失関数を提案する。
異なるモデル間での大幅な改善により、このアプローチは広く採用され、フォール検出以外の他の設定での異常検出機能を改善する可能性がある。
論文 参考訳(メタデータ) (2023-11-06T04:29:12Z) - The State of Aerial Surveillance: A Survey [62.198765910573556]
本稿では、コンピュータビジョンとパターン認識の観点から、人間中心の空中監視タスクの概要を概観する。
主な対象は、単体または複数の被験者が検出され、特定され、追跡され、再同定され、その振る舞いが分析される人間である。
論文 参考訳(メタデータ) (2022-01-09T20:13:27Z) - Rethinking Drone-Based Search and Rescue with Aerial Person Detection [79.76669658740902]
航空ドローンの映像の視覚検査は、現在土地捜索救助(SAR)活動に不可欠な部分である。
本稿では,この空中人物検出(APD)タスクを自動化するための新しいディープラーニングアルゴリズムを提案する。
本稿では,Aerial Inspection RetinaNet (AIR) アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-11-17T21:48:31Z) - Small or Far Away? Exploiting Deep Super-Resolution and Altitude Data
for Aerial Animal Surveillance [3.8015092217142223]
本研究では,全体的注目ネットワークに基づく超解像手法と,カスタム構築された高度データ利用ネットワークにより,実環境における検出の有効性が向上することを示す。
SAVMAP と AED の2つの大型航空捕獲動物データセットを用いて,本システムの評価を行った。
論文 参考訳(メタデータ) (2021-11-12T17:30:55Z) - EmergencyNet: Efficient Aerial Image Classification for Drone-Based
Emergency Monitoring Using Atrous Convolutional Feature Fusion [8.634988828030245]
本稿では,緊急対応・監視用uavの航空機画像の効率的な分類について述べる。
緊急対応アプリケーションのための専用空中画像データベースを導入し、既存のアプローチの比較分析を行う。
マルチレゾリューション機能を処理するために,アトラス畳み込みに基づく軽量畳み込みニューラルネットワークアーキテクチャが提案されている。
論文 参考訳(メタデータ) (2021-04-28T20:24:10Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - UAV-Human: A Large Benchmark for Human Behavior Understanding with
Unmanned Aerial Vehicles [12.210724541266183]
UAVを用いた人間の行動理解のための新しいベンチマークUAVHumanを提案する。
本データセットは,67,428件のマルチモーダルビデオシーケンスと119件のアクション認識対象を含む。
フラットRGB映像による学習変換により,魚眼映像の歪みを緩和する魚眼行動認識手法を提案する。
論文 参考訳(メタデータ) (2021-04-02T08:54:04Z) - A Flow Base Bi-path Network for Cross-scene Video Crowd Understanding in
Aerial View [93.23947591795897]
本稿では,これらの課題に対処し,ドローンから収集した視覚的データから参加者を自動的に理解する。
クロスシーンテストで発生する背景雑音を軽減するために, 二重ストリーム群カウントモデルを提案する。
極暗環境下での集団密度推定問題に対処するために,ゲームグランドセフトオートV(GTAV)によって生成された合成データを導入する。
論文 参考訳(メタデータ) (2020-09-29T01:48:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。