論文の概要: Adversarial Background-Aware Loss for Weakly-supervised Temporal
Activity Localization
- arxiv url: http://arxiv.org/abs/2007.06643v1
- Date: Mon, 13 Jul 2020 19:33:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 00:26:33.270455
- Title: Adversarial Background-Aware Loss for Weakly-supervised Temporal
Activity Localization
- Title(参考訳): 弱教師付き時間的活動局所化の背景認識損失
- Authors: Kyle Min, Jason J. Corso
- Abstract要約: 近年,ビデオ内の時間的局所化活動が広く研究されている。
近年の進歩にもかかわらず、時間的活動の局所化を弱く制御する既存の手法は、ある活動が起こっていないことを認識するのに苦労している。
- 参考スコア(独自算出の注目度): 40.517438760096056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporally localizing activities within untrimmed videos has been extensively
studied in recent years. Despite recent advances, existing methods for
weakly-supervised temporal activity localization struggle to recognize when an
activity is not occurring. To address this issue, we propose a novel method
named A2CL-PT. Two triplets of the feature space are considered in our
approach: one triplet is used to learn discriminative features for each
activity class, and the other one is used to distinguish the features where no
activity occurs (i.e. background features) from activity-related features for
each video. To further improve the performance, we build our network using two
parallel branches which operate in an adversarial way: the first branch
localizes the most salient activities of a video and the second one finds other
supplementary activities from non-localized parts of the video. Extensive
experiments performed on THUMOS14 and ActivityNet datasets demonstrate that our
proposed method is effective. Specifically, the average mAP of IoU thresholds
from 0.1 to 0.9 on the THUMOS14 dataset is significantly improved from 27.9% to
30.0%.
- Abstract(参考訳): 近年,ビデオ内の時間的局所化活動が広く研究されている。
近年の進歩にもかかわらず、時間的活動の局所化を弱める方法では、活動が起こっていないことを認識できない。
そこで本研究では,A2CL-PTという新しい手法を提案する。
特徴空間の2つの三重項は,1つの三重項を用いて各活動クラスの識別的特徴を学習し,もう1つの三重項は,活動が起こらない特徴(背景特徴)と各映像のアクティビティ関連特徴とを区別する。
性能をさらに向上するため,第1のブランチはビデオの最も健全なアクティビティをローカライズし,第2のブランチはビデオの非局所的な部分から他の補助的なアクティビティを見つける。
THUMOS14およびActivityNetデータセット上で行った大規模な実験により,提案手法が有効であることを実証した。
具体的には、THUMOS14データセットにおけるIoU閾値の平均mAPは、27.9%から30.0%に大幅に改善されている。
関連論文リスト
- Boundary-Denoising for Video Activity Localization [57.9973253014712]
本稿では,映像活動のローカライゼーション問題について,認知的視点から検討する。
具体的には,DenoiseLocというエンコーダデコーダモデルを提案する。
実験によると、DenoiseLocはいくつかのビデオアクティビティ理解タスクで%前進している。
論文 参考訳(メタデータ) (2023-04-06T08:48:01Z) - Learning to Refactor Action and Co-occurrence Features for Temporal
Action Localization [74.74339878286935]
アクション機能と共起機能は、しばしばビデオの実際のアクションコンテンツを支配します。
ビデオスニペット内でこれらの2種類の特徴を分離することで,新しい補助タスクを開発する。
まず、アクション内容を明示的に分解し、その共起機能を正規化します。
論文 参考訳(メタデータ) (2022-06-23T06:30:08Z) - End-to-End Semi-Supervised Learning for Video Action Detection [23.042410033982193]
ラベルのないデータを効果的に活用するシンプルなエンドツーエンドアプローチを提案する。
ビデオアクション検出には、アクションクラス予測と時間的一貫性の両方が必要である。
提案手法が2つの異なる行動検出ベンチマークデータセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2022-03-08T18:11:25Z) - Weakly Supervised Temporal Action Localization Through Learning Explicit
Subspaces for Action and Context [151.23835595907596]
ビデオレベルの監視のみの下で、アクションインスタンスの時間的開始と終了をローカライズする方法を学ぶ。
アクションとコンテキストそれぞれについて,2つの機能サブスペースを学習するフレームワークを提案する。
提案手法は3つのベンチマークで最先端のWS-TAL法より優れている。
論文 参考訳(メタデータ) (2021-03-30T08:26:53Z) - A Hybrid Attention Mechanism for Weakly-Supervised Temporal Action
Localization [12.353250130848044]
本稿では,時間的ソフト,半ソフト,ハードアテンションを含むハイブリッドアテンション機構を備えたHAM-Netという新しいフレームワークを提案する。
提案手法は,THUMOS14データセット上のIoUしきい値0.5において,少なくとも2.2%のmAPで最新の最先端手法より優れている。
論文 参考訳(メタデータ) (2021-01-03T03:08:18Z) - Revisiting Few-shot Activity Detection with Class Similarity Control [107.79338380065286]
本稿では,提案回帰に基づく数ショットの時間的活動検出のためのフレームワークを提案する。
我々のモデルはエンドツーエンドのトレーニングが可能で、数ショットのアクティビティと未トリミングなテストビデオのフレームレートの違いを考慮しており、さらに数ショットのサンプルの恩恵を受けることができる。
論文 参考訳(メタデータ) (2020-03-31T22:02:38Z) - ZSTAD: Zero-Shot Temporal Activity Detection [107.63759089583382]
本研究では,ゼロショット時間的活動検出(ZSTAD)と呼ばれる新たなタスク設定を提案する。
このソリューションのアーキテクチャとして,R-C3Dに基づくエンドツーエンドのディープネットワークを設計する。
THUMOS14とCharadesデータセットの両方の実験は、目に見えない活動を検出するという点で有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-03-12T02:40:36Z) - Weakly Supervised Temporal Action Localization Using Deep Metric
Learning [12.49814373580862]
本稿では,トレーニング中の映像レベルのアクションインスタンスのみを統括する時間的行動ローカライズ手法を提案する。
標準バックプロパゲーションアルゴリズムを用いて,バランスの取れた2進クロスエントロピー損失とメートル法損失を共同で最適化する。
IoU閾値0.5でTHUMOS14を6.5%mAP改善し,ActivityNet1.2の競合性能を実現した。
論文 参考訳(メタデータ) (2020-01-21T22:01:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。