論文の概要: Context-aware and Scale-insensitive Temporal Repetition Counting
- arxiv url: http://arxiv.org/abs/2005.08465v1
- Date: Mon, 18 May 2020 05:49:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 23:48:36.264202
- Title: Context-aware and Scale-insensitive Temporal Repetition Counting
- Title(参考訳): 文脈認識とスケール非感応時間反復計数
- Authors: Huaidong Zhang, Xuemiao Xu, Guoqiang Han, and Shengfeng He
- Abstract要約: 時間的反復カウントは、与えられた反復行動のサイクル数を推定することを目的としている。
既存のディープラーニング手法は、実生活における複雑な反復行動に対して無効である固定された時間スケールで繰り返し動作が実行されると仮定する。
本稿では,未知かつ多様なサイクル長による繰り返しカウントの課題に対処するための文脈認識・スケール非感性フレームワークを提案する。
- 参考スコア(独自算出の注目度): 60.40438811580856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal repetition counting aims to estimate the number of cycles of a given
repetitive action. Existing deep learning methods assume repetitive actions are
performed in a fixed time-scale, which is invalid for the complex repetitive
actions in real life. In this paper, we tailor a context-aware and
scale-insensitive framework, to tackle the challenges in repetition counting
caused by the unknown and diverse cycle-lengths. Our approach combines two key
insights: (1) Cycle lengths from different actions are unpredictable that
require large-scale searching, but, once a coarse cycle length is determined,
the variety between repetitions can be overcome by regression. (2) Determining
the cycle length cannot only rely on a short fragment of video but a contextual
understanding. The first point is implemented by a coarse-to-fine cycle
refinement method. It avoids the heavy computation of exhaustively searching
all the cycle lengths in the video, and, instead, it propagates the coarse
prediction for further refinement in a hierarchical manner. We secondly propose
a bidirectional cycle length estimation method for a context-aware prediction.
It is a regression network that takes two consecutive coarse cycles as input,
and predicts the locations of the previous and next repetitive cycles. To
benefit the training and evaluation of temporal repetition counting area, we
construct a new and largest benchmark, which contains 526 videos with diverse
repetitive actions. Extensive experiments show that the proposed network
trained on a single dataset outperforms state-of-the-art methods on several
benchmarks, indicating that the proposed framework is general enough to capture
repetition patterns across domains.
- Abstract(参考訳): 時間的反復カウントは、与えられた反復行動のサイクル数を推定することを目的としている。
既存のディープラーニング手法は、実生活における複雑な反復行動に対して無効である固定された時間スケールで繰り返し動作が実行されると仮定する。
本稿では,未知かつ多様なサイクル長による繰り返しカウントの課題に対処するため,文脈認識・スケール非感受性の枠組みを整理する。
1) 異なる行動からのサイクル長は予測不可能であり, 大規模な探索を必要とするが, 粗いサイクル長が決定されると, 繰り返しの多様性は回帰によって克服できる。
2) サイクル長の決定は,短いビデオの断片にのみ依存せず,文脈的理解に依存しない。
第1の点は粗いサイクル改善法によって実装される。
ビデオ中のすべてのサイクルの長さを徹底的に探索する重い計算を回避し、代わりに階層的な方法でさらなる改善のための粗い予測を伝搬する。
次に,文脈認識予測のための双方向サイクル長推定手法を提案する。
2つの連続した粗周期を入力とし、前回と次の反復サイクルの位置を予測する回帰ネットワークである。
時間的反復カウント領域の訓練と評価の恩恵を受けるために,526本のビデオを含む,反復動作の異なるベンチマークを構築した。
広範な実験により、単一のデータセットでトレーニングされたネットワークは、いくつかのベンチマークで最先端のメソッドよりも優れており、提案されたフレームワークはドメイン間の反復パターンをキャプチャできるほど一般的であることを示している。
関連論文リスト
- Recycled Attention: Efficient inference for long-context language models [54.00118604124301]
本稿では,入力トークンのサブセットに対して,フルコンテキストアテンションとアテンションを交互に切り替える推論時間手法であるRecycled Attentionを提案する。
部分的に注意を払っていると、全注意を払っている前のトークンの注意パターンをリサイクルし、最も出席しているトークンの上位Kにのみ出席する。
提案手法は,局所的な文脈や注目スコアの高いトークンにのみ参加する推論時加速度法と比較して,現在の復号ステップに関連するトークンを柔軟に選択する。
論文 参考訳(メタデータ) (2024-11-08T18:57:07Z) - IVAC-P2L: Leveraging Irregular Repetition Priors for Improving Video Action Counting [24.596979713593765]
ビデオアクションカウント(VAC)は、ビデオ内の反復的なアクションを分析する上で重要である。
伝統的な手法は、割り込みや周期の変動など、アクション反復の複雑さを見落としてきた。
ビデオにおける不規則な反復パターンのモデル化を優先する不規則なビデオアクションカウント(IVAC)を導入する。
論文 参考訳(メタデータ) (2024-03-18T16:56:47Z) - Efficient Action Counting with Dynamic Queries [31.833468477101604]
線形計算複雑性を伴う繰り返し動作サイクルをローカライズするために,アクションクエリ表現を用いた新しい手法を提案する。
静的なアクションクエリとは異なり、このアプローチは動的に動画機能をアクションクエリに埋め込み、より柔軟で一般化可能な表現を提供する。
提案手法は, 従来よりも特に, 長時間の映像シーケンス, 見えない動作, 様々な速度での動作において, 顕著に優れていた。
論文 参考訳(メタデータ) (2024-03-03T15:43:11Z) - Curricular and Cyclical Loss for Time Series Learning Strategy [17.725840333187577]
本稿では,Curricular and CyclicaL Loss (CRUCIAL) を提案する。
CRUCIALには2つの特徴がある。
単調なサイズに比べ、循環的なサイズは予測誤差を低減できることを示す。
論文 参考訳(メタデータ) (2023-12-26T02:40:05Z) - Mitigating the Learning Bias towards Repetition by Self-Contrastive
Training for Open-Ended Generation [92.42032403795879]
GPT2のような事前訓練された言語モデル(LM)は、繰り返しテキストを生成する傾向にあることを示す。
トークンレベルの反復確率の過大評価は学習バイアスに起因している。
LMは文レベルの繰り返しループの原因となる非繰り返しトークンよりも長い範囲依存を用いて繰り返しトークンを予測する。
論文 参考訳(メタデータ) (2023-07-04T07:53:55Z) - Full Resolution Repetition Counting [19.676724611655914]
トリミングされていないビデオが与えられた場合、反復的なアクションカウントは、クラスに依存しないアクションの反復回数を見積もることを目的としている。
ダウンサンプリングは最近の最先端の手法で一般的に使われ、いくつかの繰り返しサンプルを無視する。
本稿では,オフラインの特徴抽出と時間的畳み込みネットワークを組み合わせることで,時間的分解の視点から繰り返しの動作を理解することを試みる。
論文 参考訳(メタデータ) (2023-05-23T07:45:56Z) - ReFIT: Relevance Feedback from a Reranker during Inference [109.33278799999582]
Retrieve-and-Rerankは、ニューラル情報検索の一般的なフレームワークである。
本稿では,リランカを利用してリコールを改善する手法を提案する。
論文 参考訳(メタデータ) (2023-05-19T15:30:33Z) - Counting Out Time: Class Agnostic Video Repetition Counting in the Wild [82.26003709476848]
本稿では,アクションがビデオで繰り返される期間を推定するためのアプローチを提案する。
アプローチの要点は、周期予測モジュールを時間的自己相似性を使用するように制約することにある。
我々は、大規模なラベルなしビデオコレクションから生成される合成データセットを用いて、Repnetと呼ばれるこのモデルをトレーニングする。
論文 参考訳(メタデータ) (2020-06-27T18:00:42Z) - Energy-based Periodicity Mining with Deep Features for Action Repetition
Counting in Unconstrained Videos [17.00863997561408]
行動反復カウントとは、ある行動における反復運動の発生時刻を推定することである。
本稿では,前処理をせず,任意の周期性行動に適用可能な,従来の方法よりも2つの面で優れた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-03-15T14:21:18Z) - Consistency of a Recurrent Language Model With Respect to Incomplete
Decoding [67.54760086239514]
逐次言語モデルから無限長のシーケンスを受信する問題について検討する。
不整合に対処する2つの対策として、トップkと核サンプリングの一貫性のある変種と、自己終端の繰り返し言語モデルを提案する。
論文 参考訳(メタデータ) (2020-02-06T19:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。