論文の概要: Compound Prototype Matching for Few-shot Action Recognition
- arxiv url: http://arxiv.org/abs/2207.05515v6
- Date: Sat, 14 Oct 2023 05:09:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 07:12:11.099523
- Title: Compound Prototype Matching for Few-shot Action Recognition
- Title(参考訳): ファウショット動作認識のための複合プロトタイプマッチング
- Authors: Yifei Huang, Lijin Yang, Yoichi Sato
- Abstract要約: アクション認識は,少数のラベル付きトレーニングサンプルのみを用いて,新しいアクションクラスを認識することを目的としている。
本稿では,まず,各映像をグローバルプロトタイプ群と集中プロトタイプ群からなる複合プロトタイプ群にまとめる手法を提案する。
- 参考スコア(独自算出の注目度): 29.55674018426053
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Few-shot action recognition aims to recognize novel action classes using only
a small number of labeled training samples. In this work, we propose a novel
approach that first summarizes each video into compound prototypes consisting
of a group of global prototypes and a group of focused prototypes, and then
compares video similarity based on the prototypes. Each global prototype is
encouraged to summarize a specific aspect from the entire video, for example,
the start/evolution of the action. Since no clear annotation is provided for
the global prototypes, we use a group of focused prototypes to focus on certain
timestamps in the video. We compare video similarity by matching the compound
prototypes between the support and query videos. The global prototypes are
directly matched to compare videos from the same perspective, for example, to
compare whether two actions start similarly. For the focused prototypes, since
actions have various temporal variations in the videos, we apply bipartite
matching to allow the comparison of actions with different temporal positions
and shifts. Experiments demonstrate that our proposed method achieves
state-of-the-art results on multiple benchmarks.
- Abstract(参考訳): アクション認識は,少数のラベル付きトレーニングサンプルのみを用いて,新しいアクションクラスを認識することを目的としている。
そこで本研究では,まず各映像を,グローバルプロトタイプ群とフォーカスプロトタイプ群からなる複合プロトタイプ群に要約し,そのプロトタイプに基づく映像類似度を比較する新しい手法を提案する。
それぞれのグローバルプロトタイプは、ビデオ全体、例えばアクションの開始/進化から特定の側面を要約することが推奨されている。
グローバルプロトタイプには明確なアノテーションが提供されないため、ビデオ内の特定のタイムスタンプに集中するために、焦点を絞ったプロトタイプのグループを使用します。
サポートと問い合わせビデオの複合プロトタイプをマッチングすることで,ビデオの類似度を比較する。
例えば、グローバルプロトタイプは、同じ視点の動画を比較するために直接マッチングされ、2つのアクションが同じように開始されるかどうかを比較する。
焦点を絞ったプロトタイプでは、アクションはビデオに様々な時間的変化をもたらすため、時間的位置とシフトの異なるアクションを比較するために2部マッチングを適用する。
提案手法は,複数のベンチマークで最新の結果が得られることを示す実験である。
関連論文リスト
- Negative Prototypes Guided Contrastive Learning for WSOD [8.102080369924911]
近年,画像レベルのアノテーションのみを持つ弱監視対象検出(WSOD)が注目されている。
本稿では,Native Prototypes Guided Contrastive Learning Architectureを提案する。
提案手法は最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-04T08:16:26Z) - Early Action Recognition with Action Prototypes [62.826125870298306]
本稿では,各クラスに対するフルアクションのプロトタイプ表現を学習する新しいモデルを提案する。
映像を短いクリップに分解し、視覚エンコーダがそれぞれのクリップから特徴を独立して抽出する。
その後、デコーダは、最終クラスの予測のために、すべてのクリップからオンラインのファッション機能として集約される。
論文 参考訳(メタデータ) (2023-12-11T18:31:13Z) - This Looks Like Those: Illuminating Prototypical Concepts Using Multiple
Visualizations [19.724372592639774]
ProtoConceptsは,ディープラーニングとケースベース推論を組み合わせた画像分類手法である。
提案手法は,プロトタイプベースネットワークのアーキテクチャを改良し,複数のイメージパッチを用いて視覚化された概念を学習する。
実験の結果,この手法は,既存の画像分類網の広範な変更として適用可能であることがわかった。
論文 参考訳(メタデータ) (2023-10-28T04:54:48Z) - Rethinking Person Re-identification from a Projection-on-Prototypes
Perspective [84.24742313520811]
検索タスクとしてのPerson Re-IDentification(Re-ID)は,過去10年間で大きな発展を遂げてきた。
本稿では,新しいベースライン ProNet を提案する。
4つのベンチマークの実験では、提案したProNetは単純だが有効であり、以前のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2023-08-21T13:38:10Z) - Universal Prototype Transport for Zero-Shot Action Recognition and
Localization [16.630571993283695]
この研究は、トレーニング例が得られない場合、ビデオ内のアクションカテゴリを認識する問題に対処する。
主なアイデアは、見知らぬアクションのセマンティックプロトタイプを、すべてのテストビデオの配信にマッチさせることである。
ユニバーサルアクションモデルでは、未確認のアクションプロトタイプから全ての投影されたテストビデオまで、超球面の最適輸送を通してマッチングすることを提案する。
論文 参考訳(メタデータ) (2022-03-08T09:58:40Z) - Interpretable Image Classification with Differentiable Prototypes
Assignment [7.660883761395447]
クラスが共有するプロトタイプのプールを備えた解釈可能な画像分類モデルであるProtoPoolを紹介する。
プロトタイプを特定のクラスに完全に微分可能な割り当てを導入することで得られる。
我々は,CUB-200-2011とStanford Carsのデータセットにおいて,ProtoPoolが最先端の精度を得ることを示す。
論文 参考訳(メタデータ) (2021-12-06T10:03:32Z) - APANet: Adaptive Prototypes Alignment Network for Few-Shot Semantic
Segmentation [56.387647750094466]
Few-shotのセマンティックセマンティックセマンティクスは、指定されたクエリイメージに、ラベル付きサポートイメージのみで、新規クラスのオブジェクトをセグメントすることを目的としている。
ほとんどの高度なソリューションは、各クエリ機能を学習したクラス固有のプロトタイプにマッチさせることでセグメンテーションを実行するメトリクス学習フレームワークを利用している。
本稿では,クラス固有およびクラス非依存のプロトタイプを導入することで,適応型プロトタイプ表現を提案する。
論文 参考訳(メタデータ) (2021-11-24T04:38:37Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - Learning Discriminative Prototypes with Dynamic Time Warping [49.03785686097989]
時間的認識タスクのためのクラス固有の識別プロトタイプを学習する新しい手法であるDP-DTWを提案する。
DP-DTWは時系列分類ベンチマークにおいて従来のDTWよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-17T06:11:11Z) - ProtoPShare: Prototype Sharing for Interpretable Image Classification
and Similarity Discovery [9.36640530008137]
本稿では,プロトタイプ部品のパラダイムを取り入れた自己説明手法であるProtoPShareを紹介する。
ProtoPShareの主な特徴は、データ依存のマージプルーニングのおかげで、クラス間でプロトタイプ部品を効率的に共有できることである。
CUB-200-2011とStanford Carsの2つのデータセットでこの結果を検証する。
論文 参考訳(メタデータ) (2020-11-29T11:23:05Z) - Revisiting Few-shot Activity Detection with Class Similarity Control [107.79338380065286]
本稿では,提案回帰に基づく数ショットの時間的活動検出のためのフレームワークを提案する。
我々のモデルはエンドツーエンドのトレーニングが可能で、数ショットのアクティビティと未トリミングなテストビデオのフレームレートの違いを考慮しており、さらに数ショットのサンプルの恩恵を受けることができる。
論文 参考訳(メタデータ) (2020-03-31T22:02:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。