論文の概要: Revisiting Few-shot Activity Detection with Class Similarity Control
- arxiv url: http://arxiv.org/abs/2004.00137v1
- Date: Tue, 31 Mar 2020 22:02:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 01:32:11.798200
- Title: Revisiting Few-shot Activity Detection with Class Similarity Control
- Title(参考訳): クラス類似度制御によるファウショット活動検出の再検討
- Authors: Huijuan Xu, Ximeng Sun, Eric Tzeng, Abir Das, Kate Saenko, Trevor
Darrell
- Abstract要約: 本稿では,提案回帰に基づく数ショットの時間的活動検出のためのフレームワークを提案する。
我々のモデルはエンドツーエンドのトレーニングが可能で、数ショットのアクティビティと未トリミングなテストビデオのフレームレートの違いを考慮しており、さらに数ショットのサンプルの恩恵を受けることができる。
- 参考スコア(独自算出の注目度): 107.79338380065286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many interesting events in the real world are rare making preannotated
machine learning ready videos a rarity in consequence. Thus, temporal activity
detection models that are able to learn from a few examples are desirable. In
this paper, we present a conceptually simple and general yet novel framework
for few-shot temporal activity detection based on proposal regression which
detects the start and end time of the activities in untrimmed videos. Our model
is end-to-end trainable, takes into account the frame rate differences between
few-shot activities and untrimmed test videos, and can benefit from additional
few-shot examples. We experiment on three large scale benchmarks for temporal
activity detection (ActivityNet1.2, ActivityNet1.3 and THUMOS14 datasets) in a
few-shot setting. We also study the effect on performance of different amount
of overlap with activities used to pretrain the video classification backbone
and propose corrective measures for future works in this domain. Our code will
be made available.
- Abstract(参考訳): 実世界の多くの興味深いイベントは、プレアノテートされた機械学習の準備が整ったビデオを希少なものにしている。
したがって、いくつかの例から学習可能な時間的活動検出モデルが望ましい。
本稿では,提案手法を応用し,ビデオの開始時刻と終了時刻を推定する提案回帰に基づく,概念的にシンプルで汎用的で斬新な時間的活動検出フレームワークを提案する。
私たちのモデルはエンドツーエンドのトレーニングが可能で、数ショットのアクティビティと未トリミングなテストビデオのフレームレートの違いを考慮しています。
本稿では,時間的活動検出のための大規模な3つのベンチマーク(ActivityNet1.2,ActivityNet1.3,THUMOS14データセット)を,数ショットで実験する。
また,映像分類のバックボーンの事前学習に用いた活動と異なるオーバーラップの効果について検討し,この領域における今後の作業の補正手法を提案する。
私たちのコードは利用可能になります。
関連論文リスト
- Query by Activity Video in the Wild [52.42177539947216]
現在のクェリ・バイ・アクティビティ・ビデオの文献では、埋め込みを学ぶ際に、すべてのアクティビティが十分なラベル付き例を持っているという仮定が一般的である。
本稿では,アクティビティ検索における不均衡なシナリオを明示的に扱う視覚意味埋め込みネットワークを提案する。
論文 参考訳(メタデータ) (2023-11-23T10:26:36Z) - Self-supervised Pretraining with Classification Labels for Temporal
Activity Detection [54.366236719520565]
時間的アクティビティ検出は、1フレーム当たりのアクティビティクラスを予測することを目的としている。
検出に必要なフレームレベルのアノテーションが高価なため、検出データセットの規模は限られている。
本研究では,分類ラベルを利用した自己教師付き事前学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-26T18:59:28Z) - Few-Shot Action Localization without Knowing Boundaries [9.959844922120523]
対象のアクションの1/2のトリミング例がテスト時にのみ利用可能である場合,未トリミングビデオ中のアクションのローカライズを学習可能であることを示す。
ビデオのペア間の微細な類似パターンをモデル化した時間的類似度行列(TSM)を推定するネットワークを提案する。
提案手法は,最先端の完全教師付き,少数ショットの学習手法に匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2021-06-08T07:32:43Z) - Learning to Localize Actions from Moments [153.54638582696128]
本研究では,多種多様な行動カテゴリに対する行動ローカライゼーションを学習するトランスファーラーニングタイプの新しい設計を提案する。
本稿では、そのような設計をワンステージのアクションローカライズフレームワークに統合するアクション・ヘラルド・ネットワーク(AherNet)を提案する。
論文 参考訳(メタデータ) (2020-08-31T16:03:47Z) - Gabriella: An Online System for Real-Time Activity Detection in
Untrimmed Security Videos [72.50607929306058]
本研究では,未トリミングされたセキュリティビデオ上でのアクティビティ検出をリアルタイムに行うオンラインシステムを提案する。
提案手法は, チューブレット抽出, 活性分類, オンラインチューブレットマージの3段階からなる。
提案手法の有効性を,100fps(100fps)と最新技術による性能評価で実証した。
論文 参考訳(メタデータ) (2020-04-23T22:20:10Z) - TAEN: Temporal Aware Embedding Network for Few-Shot Action Recognition [10.07962673311661]
短時間の動作認識のためのTAEN(Aware Temporal Embedding Network)を提案する。
映像分類と時間的行動検出の2つの課題に対するTAENの有効性を実証した。
ほんの数枚の完全に接続されたレイヤのトレーニングでは、いくつかのショットビデオ分類と時間的検出タスクの両方で、先行技術に匹敵する結果に到達します。
論文 参考訳(メタデータ) (2020-04-21T16:32:10Z) - ZSTAD: Zero-Shot Temporal Activity Detection [107.63759089583382]
本研究では,ゼロショット時間的活動検出(ZSTAD)と呼ばれる新たなタスク設定を提案する。
このソリューションのアーキテクチャとして,R-C3Dに基づくエンドツーエンドのディープネットワークを設計する。
THUMOS14とCharadesデータセットの両方の実験は、目に見えない活動を検出するという点で有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-03-12T02:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。