論文の概要: Real-time Action Recognition for Fine-Grained Actions and The Hand Wash
Dataset
- arxiv url: http://arxiv.org/abs/2210.07400v1
- Date: Thu, 13 Oct 2022 22:38:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 15:50:07.890850
- Title: Real-time Action Recognition for Fine-Grained Actions and The Hand Wash
Dataset
- Title(参考訳): ファイングラインドアクションのリアルタイム行動認識とハンドウォッシュデータセット
- Authors: Akash Nagaraj, Mukund Sood, Chetna Sureka, Gowri Srinivasa
- Abstract要約: Raspberry Piのような低出力システム上で,高精度かつ効率的にリアルタイムに動作する3ストリーム融合アルゴリズムを提案する。
このアルゴリズムによって得られた結果は、UCF-101とHMDB-51データセットでベンチマークされ、それぞれ92.7%と64.9%の精度を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present a three-stream algorithm for real-time action
recognition and a new dataset of handwash videos, with the intent of aligning
action recognition with real-world constraints to yield effective conclusions.
A three-stream fusion algorithm is proposed, which runs both accurately and
efficiently, in real-time even on low-powered systems such as a Raspberry Pi.
The cornerstone of the proposed algorithm is the incorporation of both spatial
and temporal information, as well as the information of the objects in a video
while using an efficient architecture, and Optical Flow computation to achieve
commendable results in real-time. The results achieved by this algorithm are
benchmarked on the UCF-101 as well as the HMDB-51 datasets, achieving an
accuracy of 92.7% and 64.9% respectively. An important point to note is that
the algorithm is novel in the aspect that it is also able to learn the
intricate differences between extremely similar actions, which would be
difficult even for the human eye. Additionally, noticing a dearth in the number
of datasets for the recognition of very similar or fine-grained actions, this
paper also introduces a new dataset that is made publicly available, the Hand
Wash Dataset with the intent of introducing a new benchmark for fine-grained
action recognition tasks in the future.
- Abstract(参考訳): 本稿では,リアルタイムな行動認識のための3ストリームのアルゴリズムと,実世界の制約と協調して効果的な結論を得るためのハンドウォッシュビデオのデータセットを提案する。
Raspberry Piのような低出力システムでも,高精度かつ効率的にリアルタイムに動作する3ストリーム融合アルゴリズムが提案されている。
提案アルゴリズムの基本的な基盤は,空間的情報と時間的情報の両方と,効率的なアーキテクチャを用いて映像中の物体の情報と,光フロー計算を組み込むことで,リアルタイムに報奨可能な結果を得る。
このアルゴリズムによって得られた結果は、UCF-101とHMDB-51データセットでベンチマークされ、それぞれ92.7%と64.9%の精度を達成した。
重要な点として、このアルゴリズムは人間の目でも難しい非常に類似した行動の複雑な違いを学習できるという点において、新しいものである点が挙げられる。
さらに,非常によく似た,あるいはきめの細かいアクションの認識のためのデータセットの数が不足していることに気付き,今後,詳細なアクション認識タスクのための新しいベンチマークを導入することを意図した,手洗いデータセットを新たに公開する。
関連論文リスト
- On the Importance of Spatial Relations for Few-shot Action Recognition [109.2312001355221]
本稿では,空間的関係の重要性を考察し,より正確な数発アクション認識法を提案する。
新たな空間アライメントクロストランス(SA-CT)は、空間関係を再調整し、時間情報を組み込む。
実験の結果, 時間的情報を使用しなくても, SA-CTの性能は3/4ベンチマークの時間的手法に匹敵することがわかった。
論文 参考訳(メタデータ) (2023-08-14T12:58:02Z) - High Speed Human Action Recognition using a Photonic Reservoir Computer [1.7403133838762443]
我々は,「関心の時間」に基づく貯水池コンピュータの新しい訓練方法を提案する。
我々は,複数のビデオストリームをリアルタイムに処理できる点において,高い精度と速度でタスクを解く。
論文 参考訳(メタデータ) (2023-05-24T16:04:42Z) - TempNet: Temporal Attention Towards the Detection of Animal Behaviour in
Videos [63.85815474157357]
本稿では,映像中の生物学的行動を検出するための,効率的なコンピュータビジョンと深層学習に基づく手法を提案する。
TempNetはエンコーダブリッジと残留ブロックを使用して、2段階の空間的、そして時間的、エンコーダでモデル性能を維持する。
本研究では,サブルフィッシュ (Anoplopoma fimbria) 幼虫の検出への応用を実証する。
論文 参考訳(メタデータ) (2022-11-17T23:55:12Z) - SHREC 2022 Track on Online Detection of Heterogeneous Gestures [11.447098172408111]
本稿では,3Dハンドポーズのシーケンスからヘテロジニアスなジェスチャーをオンライン認識する方法を評価するために組織されたコンテストの結果について述べる。
データセットは、ジェスチャーが重要でない動きとインターリーブされた手追跡データの連続的なシーケンスを特徴としている。
この評価は、検出性能だけでなく、レイテンシや偽陽性にも基づき、実用的な対話ツールの実現可能性を理解することができる。
論文 参考訳(メタデータ) (2022-07-14T07:24:02Z) - Class-Incremental Learning for Action Recognition in Videos [44.923719189467164]
ビデオ認識のためのクラス増分学習の文脈において、破滅的な忘れの問題に取り組む。
筆者らのフレームワークは、時間チャンネルの重要度マップを導入し、重要度マップを利用して、入ってくるサンプルの表現を学習することで、この課題に対処する。
提案手法は,UCF101, HMDB51, Some-Something V2データセット上に構築されたクラスインクリメンタルな行動認識ベンチマークを新たに分割する手法である。
論文 参考訳(メタデータ) (2022-03-25T12:15:49Z) - 6D Pose Estimation with Combined Deep Learning and 3D Vision Techniques
for a Fast and Accurate Object Grasping [0.19686770963118383]
リアルタイムロボットの把握は高度な自律システムにとって最優先の目標である。
本稿では,ディープニューラルネットワークを用いた高速な2次元物体認識を組み合わせた2段階手法を提案する。
提案手法は、効率と精度の両方を必要とせず、リアルタイムアプリケーションで堅牢に動作する可能性がある。
論文 参考訳(メタデータ) (2021-11-11T15:36:55Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - AdaFuse: Adaptive Temporal Fusion Network for Efficient Action
Recognition [68.70214388982545]
テンポラルモデリングは、効率的なビデオアクション認識の鍵である。
我々はAdaFuseと呼ばれる適応時間融合ネットワークを導入し、現在の特徴マップと過去の特徴マップからチャネルを融合する。
我々の手法は、最先端の手法に匹敵する精度で、約40%の計算節約を達成できる。
論文 参考訳(メタデータ) (2021-02-10T23:31:02Z) - A novel shape matching descriptor for real-time hand gesture recognition [11.798555201744596]
実時間手振り認識のための新しい形状マッチング手法を提案する。
提案手法は,他の手法よりも優れ,リアルタイムアプリケーションにおける精度と計算効率の優れた組み合わせを提供する。
論文 参考訳(メタデータ) (2021-01-11T14:41:57Z) - Unsupervised Feature Learning for Event Data: Direct vs Inverse Problem
Formulation [53.850686395708905]
イベントベースのカメラは、ピクセルごとの明るさ変化の非同期ストリームを記録する。
本稿では,イベントデータからの表現学習のための単一層アーキテクチャに焦点を当てる。
我々は,最先端手法と比較して,認識精度が最大9%向上したことを示す。
論文 参考訳(メタデータ) (2020-09-23T10:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。