論文の概要: ARID: A New Dataset for Recognizing Action in the Dark
- arxiv url: http://arxiv.org/abs/2006.03876v4
- Date: Fri, 19 Aug 2022 05:41:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 21:51:44.482307
- Title: ARID: A New Dataset for Recognizing Action in the Dark
- Title(参考訳): ARID: 暗闇でアクションを認識するための新しいデータセット
- Authors: Yuecong Xu, Jianfei Yang, Haozhi Cao, Kezhi Mao, Jianxiong Yin and
Simon See
- Abstract要約: 本稿では,ダークビデオにおける行動認識の課題について考察する。
3,780本以上のビデオクリップと11のアクションカテゴリで構成されている。
私たちの知る限りでは、ダークビデオにおける人間の行動に焦点を当てた最初のデータセットです。
- 参考スコア(独自算出の注目度): 19.010874017607247
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The task of action recognition in dark videos is useful in various scenarios,
e.g., night surveillance and self-driving at night. Though progress has been
made in the action recognition task for videos in normal illumination, few have
studied action recognition in the dark. This is partly due to the lack of
sufficient datasets for such a task. In this paper, we explored the task of
action recognition in dark videos. We bridge the gap of the lack of data for
this task by collecting a new dataset: the Action Recognition in the Dark
(ARID) dataset. It consists of over 3,780 video clips with 11 action
categories. To the best of our knowledge, it is the first dataset focused on
human actions in dark videos. To gain further understandings of our ARID
dataset, we analyze the ARID dataset in detail and exhibited its necessity over
synthetic dark videos. Additionally, we benchmarked the performance of several
current action recognition models on our dataset and explored potential methods
for increasing their performances. Our results show that current action
recognition models and frame enhancement methods may not be effective solutions
for the task of action recognition in dark videos.
- Abstract(参考訳): ダークビデオにおける行動認識のタスクは、夜間監視や夜間自動運転といった様々なシナリオで有用である。
通常の照明におけるビデオのアクション認識タスクは進歩しているが、暗闇下でのアクション認識の研究は少ない。
これは部分的には、そのようなタスクに十分なデータセットがないためである。
本稿では,ダークビデオにおける行動認識の課題について考察する。
我々は、新しいデータセット:Action Recognition in the Dark (ARID)データセットを集めることで、このタスクのデータ不足のギャップを埋める。
3,780本以上のビデオクリップと11のアクションカテゴリで構成されている。
私たちの知る限りでは、ダークビデオにおける人間の行動に焦点を当てた最初のデータセットです。
ARIDデータセットのさらなる理解を得るために、我々はARIDデータセットを詳細に分析し、合成ダークビデオよりもその必要性を示した。
さらに,我々のデータセット上での動作認識モデルの性能をベンチマークし,その性能向上の可能性について検討した。
この結果から,現在の行動認識モデルとフレーム拡張手法は,暗ビデオにおける行動認識の課題に有効ではない可能性が示唆された。
関連論文リスト
- Egocentric RGB+Depth Action Recognition in Industry-Like Settings [50.38638300332429]
本研究は,産業的な環境下での自我中心のRGBとDepthモダリティからの行動の認識に焦点を当てる。
我々のフレームワークは、RGBとDepthの両方のモダリティを効果的に符号化する3DビデオSWIN変換器に基づいている。
また,ICIAP 2023におけるマルチモーダル動作認識チャレンジにおいて,本手法が第1位を確保した。
論文 参考訳(メタデータ) (2023-09-25T08:56:22Z) - IndGIC: Supervised Action Recognition under Low Illumination [0.0]
深層多入力ネットワークを用いた行動認識手法を提案する。
Ind-GICは低照度映像の高精細化のために提案され、1フレームに1ガンマを発生させ、高精細化性能を向上する。
実験結果から,本モデルはARIDデータセットの精度が高いことがわかった。
論文 参考訳(メタデータ) (2023-08-29T14:41:10Z) - Adversarial Domain Adaptation for Action Recognition Around the Clock [0.7614628596146599]
本稿では,ドメイン適応に基づく行動認識手法を提案する。
クロスドメイン設定での敵対的学習を使用して、クロスドメインアクション認識を学習する。
InFARおよびXD145アクションデータセット上でのSOTAパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-25T01:08:27Z) - ActAR: Actor-Driven Pose Embeddings for Video Action Recognition [12.043574473965318]
ビデオにおけるヒューマンアクション認識(HAR)は、ビデオ理解のコアタスクの1つである。
我々は,赤外スペクトルにおける効率的な人間の行動を認識することを同時に学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-04-19T05:12:24Z) - Video Action Detection: Analysing Limitations and Challenges [70.01260415234127]
ビデオ行動検出における既存のデータセットを分析し,その限界について議論する。
静的画像から映像を区別する重要な特性である時間的側面を解析するバイアスネススタディを実行する。
このような極端な実験は、注意深いモデリングを必要とする既存の手法に忍び込んだバイアスの存在を示している。
論文 参考訳(メタデータ) (2022-04-17T00:42:14Z) - A Comprehensive Study of Deep Video Action Recognition [35.7068977497202]
ビデオ動作認識は,映像理解における代表的なタスクの一つである。
ビデオ行動認識のためのディープラーニングに関する200以上の既存論文を包括的に調査する。
論文 参考訳(メタデータ) (2020-12-11T18:54:08Z) - Depth Guided Adaptive Meta-Fusion Network for Few-shot Video Recognition [86.31412529187243]
わずかにラベル付きサンプルで新しいアクションを学習することを目的としたビデオ認識はほとんどない。
本稿では,AMeFu-Netと呼ばれる映像認識のための深度誘導型適応メタフュージョンネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T03:06:20Z) - Toward Accurate Person-level Action Recognition in Videos of Crowded
Scenes [131.9067467127761]
我々は、シーンの情報を完全に活用し、新しいデータを集めることで、アクション認識を改善することに集中する。
具体的には、各フレームの空間的位置を検出するために、強い人間の検出器を採用する。
そして、行動認識モデルを適用して、HIEデータセットとインターネットから多様なシーンを持つ新しいデータの両方でビデオフレームから時間情報を学ぶ。
論文 参考訳(メタデータ) (2020-10-16T13:08:50Z) - TinyVIRAT: Low-resolution Video Action Recognition [70.37277191524755]
現実世界の監視環境では、ビデオ内のアクションは幅広い解像度でキャプチャされる。
天然の低解像度アクティビティを含むベンチマークデータセットTinyVIRATを導入する。
本稿では,プログレッシブ・ジェネレーティブ・アプローチを用いたビデオにおける小さな動作を認識する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T21:09:18Z) - ZSTAD: Zero-Shot Temporal Activity Detection [107.63759089583382]
本研究では,ゼロショット時間的活動検出(ZSTAD)と呼ばれる新たなタスク設定を提案する。
このソリューションのアーキテクチャとして,R-C3Dに基づくエンドツーエンドのディープネットワークを設計する。
THUMOS14とCharadesデータセットの両方の実験は、目に見えない活動を検出するという点で有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-03-12T02:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。