論文の概要: Benchmarking Data Efficiency and Computational Efficiency of Temporal
Action Localization Models
- arxiv url: http://arxiv.org/abs/2308.13082v1
- Date: Thu, 24 Aug 2023 20:59:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 15:40:57.221841
- Title: Benchmarking Data Efficiency and Computational Efficiency of Temporal
Action Localization Models
- Title(参考訳): 時間的行動局所化モデルのベンチマークデータ効率と計算効率
- Authors: Jan Warchocki, Teodor Oprescu, Yunhan Wang, Alexandru Damacus, Paul
Misterka, Robert-Jan Bruintjes, Attila Lengyel, Ombretta Strafforello, Jan
van Gemert
- Abstract要約: 時間的アクションローカライゼーションでは、入力ビデオが与えられた場合、目的は、それがどのアクションを含むか、どこから始まり、どこで終わるかを予測することである。
この研究は、データ量や計算能力に制約された設定において、現在の深部時間的行動ローカライゼーションモデルがどのように機能するかを探索し、測定する。
- 参考スコア(独自算出の注目度): 42.06124795143787
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In temporal action localization, given an input video, the goal is to predict
which actions it contains, where they begin, and where they end. Training and
testing current state-of-the-art deep learning models requires access to large
amounts of data and computational power. However, gathering such data is
challenging and computational resources might be limited. This work explores
and measures how current deep temporal action localization models perform in
settings constrained by the amount of data or computational power. We measure
data efficiency by training each model on a subset of the training set. We find
that TemporalMaxer outperforms other models in data-limited settings.
Furthermore, we recommend TriDet when training time is limited. To test the
efficiency of the models during inference, we pass videos of different lengths
through each model. We find that TemporalMaxer requires the least computational
resources, likely due to its simple architecture.
- Abstract(参考訳): 時間的アクションローカライゼーションでは、入力ビデオが与えられた場合、目標は、どのアクションを含むか、どこから始まり、どこで終わるかを予測することである。
現在の最先端のディープラーニングモデルのトレーニングとテストには、大量のデータと計算能力へのアクセスが必要である。
しかし、そのようなデータの収集は困難であり、計算資源は限られている可能性がある。
この研究は、データ量や計算能力に制約された設定において、現在の深部時間的行動ローカライゼーションモデルがどのように機能するかを探索し、測定する。
トレーニングセットのサブセット上で各モデルをトレーニングすることで,データの効率を測定する。
TemporalMaxerはデータ制限設定で他のモデルよりも優れています。
さらに、トレーニング時間に制限がある場合には、TriDetを推奨します。
推論中のモデルの効率をテストするために,各モデルに異なる長さの動画を渡す。
我々はTemporalMaxerが最小の計算リソースを必要とすることを発見した。
関連論文リスト
- Data-Centric Machine Learning for Earth Observation: Necessary and Sufficient Features [5.143097874851516]
モデル記述法を利用して、モデルが最適な性能に達するために必要な特徴を特定する。
一部のデータセットは、時間的なインスタンスの20%未満で最適な精度に達することができるが、他のデータセットでは、1つのモダリティから1つのバンドの時系列が十分である。
論文 参考訳(メタデータ) (2024-08-21T07:26:43Z) - Data Shapley in One Training Run [88.59484417202454]
Data Shapleyは、機械学習コンテキストにおけるデータのコントリビューションに寄与するための、原則化されたフレームワークを提供する。
既存のアプローチでは、計算集約的な異なるデータサブセット上の再学習モデルが必要である。
本稿では、対象とするデータモデルに対するスケーラブルなデータ属性を提供することにより、これらの制限に対処するIn-Run Data Shapleyを紹介する。
論文 参考訳(メタデータ) (2024-06-16T17:09:24Z) - Combating Missing Modalities in Egocentric Videos at Test Time [92.38662956154256]
現実のアプリケーションは、プライバシの懸念、効率性の必要性、ハードウェアの問題により、不完全なモダリティを伴う問題に直面することが多い。
再トレーニングを必要とせずに,テスト時にこの問題に対処する新しい手法を提案する。
MiDlは、欠落したモダリティをテスト時にのみ扱う、自己管理型のオンラインソリューションとしては初めてのものだ。
論文 参考訳(メタデータ) (2024-04-23T16:01:33Z) - Certain and Approximately Certain Models for Statistical Learning [4.318959672085627]
特定のトレーニングデータや対象モデルに対して,不足値を持つデータから,正確なモデルを直接学習することが可能であることを示す。
我々は、理論的に保証された効率的なアルゴリズムを構築し、この必要条件を確認し、計算が不要な場合に正確なモデルを返す。
論文 参考訳(メタデータ) (2024-02-27T22:49:33Z) - Strategies and impact of learning curve estimation for CNN-based image
classification [0.2678472239880052]
学習曲線は、一定の量のトレーニングデータによって機械学習モデルのパフォーマンスが向上する尺度である。
様々な応用やモデルにおいて、学習曲線は ― 大部分が ― 権力法的な行動に従うことが観察された。
モデルの学習曲線を、データの小さなサブセットでのトレーニングから推定することにより、完全なデータセットでのトレーニングに最適なモデルのみを考慮する必要がある。
論文 参考訳(メタデータ) (2023-10-12T16:28:25Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - Building a Performance Model for Deep Learning Recommendation Model
Training on GPUs [6.05245376098191]
我々は、ディープラーニング勧告モデル(DLRM)のGPUトレーニングのためのパフォーマンスモデルを作成する。
デバイスアクティブ時間(カーネルランタイムの総和)とデバイスアイドル時間の両方が、デバイスタイム全体の重要なコンポーネントであることを示す。
本稿では,その実行グラフをトラバースすることで,DLRMのバッチごとのトレーニング時間を予測できるクリティカルパスベースのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-19T19:05:42Z) - Efficient Nearest Neighbor Language Models [114.40866461741795]
非パラメトリックニューラルネットワークモデル(NLM)は、外部データストアを用いてテキストの予測分布を学習する。
比較性能を維持しながら、推論速度の最大6倍の高速化を実現する方法を示す。
論文 参考訳(メタデータ) (2021-09-09T12:32:28Z) - GeoStat Representations of Time Series for Fast Classification [30.987852463546698]
時系列のGeoStat表現について紹介する。
ジオスタット表現は、トラジェクトリ分類の最近の手法の一般化に基づいている。
本手法は漁船の分類を含む難易度データセットにおいて良好な性能を発揮することを示す。
論文 参考訳(メタデータ) (2020-07-13T20:48:03Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。