論文の概要: ADM-Loc: Actionness Distribution Modeling for Point-supervised Temporal
Action Localization
- arxiv url: http://arxiv.org/abs/2311.15916v1
- Date: Mon, 27 Nov 2023 15:24:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 14:40:32.547172
- Title: ADM-Loc: Actionness Distribution Modeling for Point-supervised Temporal
Action Localization
- Title(参考訳): ADM-Loc:ポイント教師付き時間行動定位のための行動性分布モデリング
- Authors: Elahe Vahdani, Yingli Tian
- Abstract要約: 本稿では,1つのアクションインスタンスにアノテートされた1フレームのみをトレーニングセットにアノテートする点教師付き時間的行動検出の課題に対処する。
ADM-Loc(ADM-Loc)と呼ばれる新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 31.314383098734922
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper addresses the challenge of point-supervised temporal action
detection, in which only one frame per action instance is annotated in the
training set. Self-training aims to provide supplementary supervision for the
training process by generating pseudo-labels (action proposals) from a base
model. However, most current methods generate action proposals by applying
manually designed thresholds to action classification probabilities and
treating adjacent snippets as independent entities. As a result, these methods
struggle to generate complete action proposals, exhibit sensitivity to
fluctuations in action classification scores, and generate redundant and
overlapping action proposals. This paper proposes a novel framework termed
ADM-Loc, which stands for Actionness Distribution Modeling for point-supervised
action Localization. ADM-Loc generates action proposals by fitting a composite
distribution, comprising both Gaussian and uniform distributions, to the action
classification signals. This fitting process is tailored to each action class
present in the video and is applied separately for each action instance,
ensuring the distinctiveness of their distributions. ADM-Loc significantly
enhances the alignment between the generated action proposals and ground-truth
action instances and offers high-quality pseudo-labels for self-training.
Moreover, to model action boundary snippets, it enforces consistency in action
classification scores during training by employing Gaussian kernels, supervised
with the proposed loss functions. ADM-Loc outperforms the state-of-the-art
point-supervised methods on THUMOS14 and ActivityNet-v1.2 datasets.
- Abstract(参考訳): 本稿では,アクションインスタンス毎に1フレームのみをアノテートする,ポイント教師付き時間的動作検出の課題について述べる。
自己学習は、ベースモデルから擬似ラベル(行動提案)を生成することにより、トレーニングプロセスの補助的監督を提供することを目的としている。
しかし、現在のほとんどの手法は、手動で設計した閾値をアクション分類の確率に適用し、隣接するスニペットを独立したエンティティとして扱うことでアクション提案を生成する。
結果として、これらの手法は完全なアクション提案の生成に苦労し、アクション分類スコアの変動に対する感受性を示し、冗長で重複したアクション提案を生成する。
本稿では,点教師付き動作定位のための行動分布モデリングの指標である adm-loc という新しい枠組みを提案する。
ADM-Locは、ガウス分布と均一分布の両方からなる複合分布を作用分類信号に適合させて作用提案を生成する。
このフィッティングプロセスは、ビデオに存在する各アクションクラスに合わせて調整され、各アクションインスタンスに対して別々に適用され、その分布の特異性を保証する。
ADM-Locは生成されたアクション提案と地味なアクションインスタンスの整合性を大幅に向上させ、自己学習のための高品質な擬似ラベルを提供する。
さらに、動作境界スニペットをモデル化するために、提案する損失関数を監督するガウス核を用いて、トレーニング中の行動分類スコアの一貫性を強制する。
ADM-LocはTHUMOS14とActivityNet-v1.2データセットの最先端のポイント管理手法より優れている。
関連論文リスト
- Towards Completeness: A Generalizable Action Proposal Generator for Zero-Shot Temporal Action Localization [31.82121743586165]
Generalizable Action Proposal Generator (GAP)は、クエリベースのアーキテクチャで構築され、提案レベルの目的でトレーニングされる。
本アーキテクチャに基づいて,アクションのカテゴリに依存しない動的情報を強化するために,行動認識識別損失を提案する。
実験の結果,我々のGAPは2つのZSTALベンチマークで最先端の性能を達成できた。
論文 参考訳(メタデータ) (2024-08-25T09:07:06Z) - Continual-MAE: Adaptive Distribution Masked Autoencoders for Continual Test-Time Adaptation [49.827306773992376]
連続的テスト時間適応(CTTA)は、ソース事前学習モデルから目標分布の連続的な変化に移行するために提案される。
提案手法は,CTTAタスクの分類とセグメンテーションの両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-19T15:34:52Z) - POTLoc: Pseudo-Label Oriented Transformer for Point-Supervised Temporal Action Localization [26.506893363676678]
本稿ではPseudo-label Oriented Transformerを提案する。
POTLocは、自己学習戦略を通じて、継続的なアクション構造を特定し、追跡するように設計されている。
THUMOS'14とActivityNet-v1.2データセットでは、最先端のポイント管理手法よりも優れています。
論文 参考訳(メタデータ) (2023-10-20T15:28:06Z) - Proposal-based Temporal Action Localization with Point-level Supervision [29.98225940694062]
ポイントレベルの時間的行動ローカライゼーション(PTAL)は、未トリミングビデオにおけるアクションの認識とローカライズを目的としている。
そこで本研究では,フレキシブル期間のアクション提案を生成し,評価することで,アクションをローカライズする手法を提案する。
実験の結果,提案手法は最先端手法の競争力や性能に優れることがわかった。
論文 参考訳(メタデータ) (2023-10-09T08:27:05Z) - Proposal-Based Multiple Instance Learning for Weakly-Supervised Temporal
Action Localization [98.66318678030491]
微弱に監督された時間的行動ローカライゼーションは、トレーニング中にビデオレベルのカテゴリラベルのみを持つ未トリミングビデオのアクションをローカライズし、認識することを目的としている。
本稿では,提案手法をベースとしたP-MIL(Multiple Instance Learning)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T02:48:04Z) - Diffusion Action Segmentation [63.061058214427085]
本稿では,このような反復的洗練の本質的な精神を共用した拡散モデルによる新しい枠組みを提案する。
このフレームワークでは、入力された映像の特徴を条件としてランダムノイズから行動予測を反復的に生成する。
論文 参考訳(メタデータ) (2023-03-31T10:53:24Z) - ASM-Loc: Action-aware Segment Modeling for Weakly-Supervised Temporal
Action Localization [36.90693762365237]
微弱に監督された時間的アクションローカライゼーションは、トレーニングのためにビデオレベルのアクションラベルのみを与えられた未トリミングビデオ中のアクションセグメントを認識し、ローカライズすることを目的としている。
我々は,標準のMIL法を超越した,明示的でアクション対応のセグメントモデリングを可能にする WTAL フレームワークである System を提案する。
本フレームワークでは, 短時間動作の寄与を補う動的セグメントサンプリング, (ii) 動作のダイナミクスをモデル化し, 時間的依存性を捉えるためのセグメント間注意, (iii) 動作境界予測を改善するための擬似インスタンスレベルの監視の3つの要素を包含する。
論文 参考訳(メタデータ) (2022-03-29T01:59:26Z) - Adaptive Mutual Supervision for Weakly-Supervised Temporal Action
Localization [92.96802448718388]
時間的行動ローカライゼーションのための適応的相互監視フレームワーク(AMS)を導入する。
提案手法は最先端手法を著しく上回っている。
論文 参考訳(メタデータ) (2021-04-06T08:31:10Z) - Modeling Multi-Label Action Dependencies for Temporal Action
Localization [53.53490517832068]
実世界のビデオには、アクションクラス間の固有の関係を持つ多くの複雑なアクションが含まれている。
非発生ビデオにおける時間的行動の局在化のタスクのためのこれらの行動関係をモデル化する注意に基づくアーキテクチャを提案する。
マルチラベルアクションローカリゼーションベンチマークの最先端の方法よりもパフォーマンスが向上しました。
論文 参考訳(メタデータ) (2021-03-04T13:37:28Z) - Two-Stream Consensus Network for Weakly-Supervised Temporal Action
Localization [94.37084866660238]
本稿では,これらの課題を同時に解決するためのTwo-Stream Consensus Network(TSCN)を提案する。
提案したTSCNは,フレームレベルの疑似地上真実を反復的に更新する反復的精錬訓練手法を特徴とする。
本稿では,2進選択のように振る舞うように注意を喚起し,アクションインスタンス境界の正確な局所化を促進するために,新たな注意正規化損失を提案する。
論文 参考訳(メタデータ) (2020-10-22T10:53:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。