論文の概要: Psych-Occlusion: Using Visual Psychophysics for Aerial Detection of Occluded Persons during Search and Rescue
- arxiv url: http://arxiv.org/abs/2412.05553v1
- Date: Sat, 07 Dec 2024 06:22:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:55:24.512804
- Title: Psych-Occlusion: Using Visual Psychophysics for Aerial Detection of Occluded Persons during Search and Rescue
- Title(参考訳): サイコ・オクルージョン:視覚生理学を用いて, 捜索・救助中の乗員の空気検査
- Authors: Arturo Miguel Russell Bernal, Jane Cleland-Huang, Walter Scheirer,
- Abstract要約: スモール・アンマンド・エアリアル・システムズ (SUAS) は、緊急対応 (ER) のシナリオにおいて「空の目」として機能する。
空中からの人物の効率的な検出は ミッションの成果を達成する上で 重要な役割を担います
sUAS搭載のコンピュータビジョン(CV)モデルの性能は、実生活の厳密な条件下で著しく低下する。
我々は、その人間の精度データを用いて、行動データセットであるサイコERの使用を例示し、検出モデルの損失関数を適応させる。
- 参考スコア(独自算出の注目度): 41.03292974500013
- License:
- Abstract: The success of Emergency Response (ER) scenarios, such as search and rescue, is often dependent upon the prompt location of a lost or injured person. With the increasing use of small Unmanned Aerial Systems (sUAS) as "eyes in the sky" during ER scenarios, efficient detection of persons from aerial views plays a crucial role in achieving a successful mission outcome. Fatigue of human operators during prolonged ER missions, coupled with limited human resources, highlights the need for sUAS equipped with Computer Vision (CV) capabilities to aid in finding the person from aerial views. However, the performance of CV models onboard sUAS substantially degrades under real-life rigorous conditions of a typical ER scenario, where person search is hampered by occlusion and low target resolution. To address these challenges, we extracted images from the NOMAD dataset and performed a crowdsource experiment to collect behavioural measurements when humans were asked to "find the person in the picture". We exemplify the use of our behavioral dataset, Psych-ER, by using its human accuracy data to adapt the loss function of a detection model. We tested our loss adaptation on a RetinaNet model evaluated on NOMAD against increasing distance and occlusion, with our psychophysical loss adaptation showing improvements over the baseline at higher distances across different levels of occlusion, without degrading performance at closer distances. To the best of our knowledge, our work is the first human-guided approach to address the location task of a detection model, while addressing real-world challenges of aerial search and rescue. All datasets and code can be found at: https://github.com/ArtRuss/NOMAD.
- Abstract(参考訳): 捜索や救助のような緊急対応(ER)のシナリオの成功は、しばしば行方不明者や負傷者の迅速な位置に依存する。
ERシナリオにおいて、小型無人航空システム(sUAS)を「空の目」として使用することが増えており、空中からの人物の効率的な検出は、ミッションの成果を達成する上で重要な役割を担っている。
長いERミッションの間、人間のオペレーターの疲労は、限られた人的資源と共に、空から人を見つけるのに役立つコンピュータビジョン(CV)機能を備えたsUASの必要性を強調している。
しかし,SUAS 上での CV モデルの性能は,典型的 ER シナリオの厳密な実環境下では著しく低下する。
これらの課題に対処するため、NOMADデータセットから画像を抽出し、クラウドソース実験を行い、人間が「写真の人物を仕上げる」よう依頼されたときの行動測定を収集した。
我々は、その人間の精度データを用いて、行動データセットであるサイコERの使用を例示し、検出モデルの損失関数を適応させる。
我々は,NOMADで評価した網膜ネットモデルを用いて,近距離での性能を低下させることなく,より高いレベルの閉塞範囲でのベースライン改善を示す精神物理学的損失適応を用いて,損失適応を検証した。
我々の知識を最大限に活用するために、我々の研究は、空中捜索と救助の現実的な課題に取り組みながら、検知モデルのロケーションタスクに対処する最初の人間誘導型アプローチである。
すべてのデータセットとコードは、https://github.com/ArtRuss/NOMAD.comで見ることができる。
関連論文リスト
- UAV-Enhanced Combination to Application: Comprehensive Analysis and Benchmarking of a Human Detection Dataset for Disaster Scenarios [3.759682200711633]
無人航空機(UAV)は捜索救助(SAR)活動に革命をもたらした。
機械学習モデルをトレーニングするための、特殊なヒューマン検出データセットが欠如していることは、大きな課題である。
本稿では,UAVが捉えた災害現場に人間のポーズをオーバーレイして合成したC2Aデータセットについて述べる。
論文 参考訳(メタデータ) (2024-08-09T08:07:19Z) - AiOS: All-in-One-Stage Expressive Human Pose and Shape Estimation [55.179287851188036]
人間のポーズと形状の復元のための新しいオールインワンステージフレームワークであるAiOSを、追加の人間検出ステップなしで導入する。
まず、画像中の人間の位置を探索し、各インスタンスのグローバルな機能をエンコードするために、人間のトークンを使用します。
そして、画像中の人間の関節を探索し、きめ細かい局所的特徴を符号化するジョイント関連トークンを導入する。
論文 参考訳(メタデータ) (2024-03-26T17:59:23Z) - Using Features at Multiple Temporal and Spatial Resolutions to Predict
Human Behavior in Real Time [2.955419572714387]
本研究では,高分解能・低分解能な空間情報と時間情報を統合し,人間の行動をリアルタイムで予測する手法を提案する。
本モデルでは,3つのネットワークが同時にトレーニングされた動作予測のためのニューラルネットワークを用いて,高分解能・低分解能特徴抽出のためのニューラルネットワークを構成する。
論文 参考訳(メタデータ) (2022-11-12T18:41:33Z) - An Outlier Exposure Approach to Improve Visual Anomaly Detection
Performance for Mobile Robots [76.36017224414523]
移動ロボットの視覚異常検出システム構築の問題点を考察する。
標準異常検出モデルは、非異常データのみからなる大規模なデータセットを用いて訓練される。
本研究では,これらのデータを利用してリアルNVP異常検出モデルの性能向上を図る。
論文 参考訳(メタデータ) (2022-09-20T15:18:13Z) - Aerial View Goal Localization with Reinforcement Learning [6.165163123577484]
本稿では,実際のUAVへのアクセスを必要とせずに,SAR(Search-and-Rescue)のようなセットアップをエミュレートするフレームワークを提案する。
この枠組みでは、エージェントが空中画像(探索領域のプロキシ)上で動作し、視覚的手がかりとして記述されたゴールのローカライズを行う。
AiRLocは、探索(遠方目標探索)と搾取(近方目標の局所化)を分離する強化学習(RL)に基づくモデルである。
論文 参考訳(メタデータ) (2022-09-08T10:27:53Z) - Rethinking Drone-Based Search and Rescue with Aerial Person Detection [79.76669658740902]
航空ドローンの映像の視覚検査は、現在土地捜索救助(SAR)活動に不可欠な部分である。
本稿では,この空中人物検出(APD)タスクを自動化するための新しいディープラーニングアルゴリズムを提案する。
本稿では,Aerial Inspection RetinaNet (AIR) アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-11-17T21:48:31Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z) - DeepSOCIAL: Social Distancing Monitoring and Infection Risk Assessment
in COVID-19 Pandemic [1.027974860479791]
世界保健機関(WHO)は、公衆の場での新型コロナウイルスの感染拡大を最小限に抑えるため、ソーシャルディスタンシング(Social Distancing)を推奨している。
コンピュータビジョンとYOLOv4ベースのDeep Neural Networkモデルを開発した。
開発されたモデルは汎用的で正確な人物検出・追跡ソリューションであり、他の多くの分野に適用できる。
論文 参考訳(メタデータ) (2020-08-26T16:56:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。