論文の概要: Accuracy and Performance Comparison of Video Action Recognition
Approaches
- arxiv url: http://arxiv.org/abs/2008.09037v1
- Date: Thu, 20 Aug 2020 15:42:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 03:24:03.324045
- Title: Accuracy and Performance Comparison of Video Action Recognition
Approaches
- Title(参考訳): 映像行動認識手法の精度と性能の比較
- Authors: Matthew Hutchinson, Siddharth Samsi, William Arcand, David Bestor,
Bill Bergeron, Chansup Byun, Micheal Houle, Matthew Hubbell, Micheal Jones,
Jeremy Kepner, Andrew Kirby, Peter Michaleas, Lauren Milechin, Julie Mullen,
Andrew Prout, Antonio Rosa, Albert Reuther, Charles Yee, Vijay Gadepally
- Abstract要約: この記事では14の既成モデルと最先端モデルを直接比較する。
提案手法に加えて,標準のTop-1およびTop-5の精度測定値を用いてモデルの精度を評価する。
- 参考スコア(独自算出の注目度): 9.015400193409908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past few years, there has been significant interest in video action
recognition systems and models. However, direct comparison of accuracy and
computational performance results remain clouded by differing training
environments, hardware specifications, hyperparameters, pipelines, and
inference methods. This article provides a direct comparison between fourteen
off-the-shelf and state-of-the-art models by ensuring consistency in these
training characteristics in order to provide readers with a meaningful
comparison across different types of video action recognition algorithms.
Accuracy of the models is evaluated using standard Top-1 and Top-5 accuracy
metrics in addition to a proposed new accuracy metric. Additionally, we compare
computational performance of distributed training from two to sixty-four GPUs
on a state-of-the-art HPC system.
- Abstract(参考訳): 過去数年間、ビデオアクション認識システムやモデルに大きな関心が寄せられてきた。
しかし、精度と計算性能の直接比較は、異なるトレーニング環境、ハードウェア仕様、ハイパーパラメータ、パイプライン、推論メソッドによって曇りがちである。
本稿は,これらの学習特性の一貫性を確保することにより,14種類のオフ・ザ・セットモデルと最先端モデルの直接比較を行い,異なる種類の映像行動認識アルゴリズムを横断的に有意義な比較を行う。
提案手法に加えて,標準のTop-1およびTop-5の精度測定値を用いてモデルの精度を評価する。
さらに,現状HPCシステム上での2~64%のGPUによる分散トレーニングの計算性能を比較した。
関連論文リスト
- Adversarial Augmentation Training Makes Action Recognition Models More
Robust to Realistic Video Distribution Shifts [13.752169303624147]
アクション認識モデルは、トレーニングデータとテストデータの間の自然な分散シフトに直面したとき、堅牢性を欠くことが多い。
そこで本研究では,そのような分布格差に対するモデルレジリエンスを評価するための2つの新しい評価手法を提案する。
提案手法は,3つの動作認識モデルにまたがるベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-21T05:50:39Z) - Texture-Based Input Feature Selection for Action Recognition [3.9596068699962323]
本稿では,ドメインの差分を増大させる入力におけるタスク関連コンテンツを決定する新しい手法を提案する。
提案モデルは,HMDB-51データセットとPenn Actionデータセットにおいて,既存の行動認識モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-02-28T23:56:31Z) - TempNet: Temporal Attention Towards the Detection of Animal Behaviour in
Videos [63.85815474157357]
本稿では,映像中の生物学的行動を検出するための,効率的なコンピュータビジョンと深層学習に基づく手法を提案する。
TempNetはエンコーダブリッジと残留ブロックを使用して、2段階の空間的、そして時間的、エンコーダでモデル性能を維持する。
本研究では,サブルフィッシュ (Anoplopoma fimbria) 幼虫の検出への応用を実証する。
論文 参考訳(メタデータ) (2022-11-17T23:55:12Z) - Benchmarking Learning Efficiency in Deep Reservoir Computing [23.753943709362794]
我々は、機械学習モデルがトレーニングデータからいかに早く学習するかを測定するために、データ効率の指標とともに、ますます困難なタスクのベンチマークを導入する。
我々は、RNN、LSTM、Transformersなどの確立された逐次教師付きモデルの学習速度を、貯水池計算に基づく比較的知られていない代替モデルと比較する。
論文 参考訳(メタデータ) (2022-09-29T08:16:52Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - Revisiting Classifier: Transferring Vision-Language Models for Video
Recognition [102.93524173258487]
ダウンストリームタスクのためのタスク非依存の深層モデルから知識を伝達することは、コンピュータビジョン研究において重要なトピックである。
本研究では,映像分類作業における知識の伝達に着目した。
予測された言語モデルを用いて、効率的な翻訳学習のための適切なセマンティックターゲットを生成する。
論文 参考訳(メタデータ) (2022-07-04T10:00:47Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z) - Systematic Assessment of Hyperdimensional Computing for Epileptic
Seizure Detection [4.249341912358848]
この研究は、てんかん発作の検出のためのHDコンピューティングフレームワークの体系的な評価を行うことである。
先程実装した2つの特徴と, てんかん発作検出におけるHDコンピューティングの新しいアプローチを検証した。
論文 参考訳(メタデータ) (2021-05-03T15:11:08Z) - SIMPLE: SIngle-network with Mimicking and Point Learning for Bottom-up
Human Pose Estimation [81.03485688525133]
Single-network with Mimicking and Point Learning for Bottom-up Human Pose Estimation (SIMPLE) を提案する。
具体的には、トレーニングプロセスにおいて、SIMPLEが高性能なトップダウンパイプラインからのポーズ知識を模倣できるようにする。
さらに、SIMPLEは人間検出とポーズ推定を統一的なポイントラーニングフレームワークとして定式化し、単一ネットワークで相互に補完する。
論文 参考訳(メタデータ) (2021-04-06T13:12:51Z) - Tracking Performance of Online Stochastic Learners [57.14673504239551]
オンラインアルゴリズムは、大規模なバッチにデータを保存したり処理したりすることなく、リアルタイムで更新を計算できるため、大規模な学習環境で人気がある。
一定のステップサイズを使用すると、これらのアルゴリズムはデータやモデル特性などの問題パラメータのドリフトに適応し、適切な精度で最適解を追跡する能力を持つ。
定常仮定に基づく定常状態性能とランダムウォークモデルによるオンライン学習者の追跡性能の関連性を確立する。
論文 参考訳(メタデータ) (2020-04-04T14:16:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。