論文の概要: Sparse Semi-Supervised Action Recognition with Active Learning
- arxiv url: http://arxiv.org/abs/2012.01740v2
- Date: Mon, 7 Dec 2020 20:28:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 15:07:32.641871
- Title: Sparse Semi-Supervised Action Recognition with Active Learning
- Title(参考訳): 能動学習によるスパース半監督行動認識
- Authors: Jingyuan Li and Eli Shlizerman
- Abstract要約: 骨格に基づく行動認識の最先端の手法は、ラベルに依存して管理されている。
本稿では,骨格に基づく行動認識のための新しい手法であるSESARを提案する。
本研究の結果は, 単独骨格を用いた教師付きクラスタ識別と, スパースラベル標本に適用した場合のアクティブラーニング手法に優れていた。
- 参考スコア(独自算出の注目度): 10.558951653323286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current state-of-the-art methods for skeleton-based action recognition are
supervised and rely on labels. The reliance is limiting the performance due to
the challenges involved in annotation and mislabeled data. Unsupervised methods
have been introduced, however, they organize sequences into clusters and still
require labels to associate clusters with actions. In this paper, we propose a
novel approach for skeleton-based action recognition, called SESAR, that
connects these approaches. SESAR leverages the information from both unlabeled
data and a handful of sequences actively selected for labeling, combining
unsupervised training with sparsely supervised guidance. SESAR is composed of
two main components, where the first component learns a latent representation
for unlabeled action sequences through an Encoder-Decoder RNN which
reconstructs the sequences, and the second component performs active learning
to select sequences to be labeled based on cluster and classification
uncertainty. When the two components are simultaneously trained on
skeleton-based action sequences, they correspond to a robust system for action
recognition with only a handful of labeled samples. We evaluate our system on
common datasets with multiple sequences and actions, such as NW UCLA, NTU RGB+D
60, and UWA3D. Our results outperform standalone skeleton-based supervised,
unsupervised with cluster identification, and active-learning methods for
action recognition when applied to sparse labeled samples, as low as 1% of the
data.
- Abstract(参考訳): スケルトンに基づく行動認識のための最先端の手法は監督され、ラベルに依存している。
アノテーションやラベルのつかないデータに関わる問題により、依存度はパフォーマンスを制限しています。
教師なしの手法が導入されたが、クラスタにシーケンスを整理し、クラスタとアクションを関連付けるためにラベルを必要とする。
本稿では,これらのアプローチをつなぐスケルトンベース行動認識のための新しいアプローチであるsesarを提案する。
SESARはラベルなしデータとラベル付けのためにアクティブに選択された少数のシーケンスの両方からの情報を活用する。
SESARは2つの主要コンポーネントから構成されており、第1のコンポーネントは、シーケンスを再構成するエンコーダ・デコーダRNNを介してラベルなしのアクションシーケンスの潜在表現を学習し、第2のコンポーネントはクラスタと分類の不確実性に基づいてラベル付けされるシーケンスを選択するアクティブ学習を行う。
2つのコンポーネントが骨格に基づくアクションシーケンスで同時にトレーニングされると、少数のラベル付きサンプルでのみ動作認識を行う堅牢なシステムに対応する。
我々は,NW UCLA,NTU RGB+D 60,UWA3Dなど,複数のシーケンスと動作を持つ共通データセット上で評価を行った。
その結果,スケルトンに基づく教師付き,クラスタ同定による教師なし,およびスパルトラベル標本に適用した場合の行動認識のためのアクティブラーニング手法を1%以下で上回った。
関連論文リスト
- Collaborative Feature-Logits Contrastive Learning for Open-Set Semi-Supervised Object Detection [75.02249869573994]
オープンセットのシナリオでは、ラベルなしデータセットには、イン・ディストリビューション(ID)クラスとアウト・オブ・ディストリビューション(OOD)クラスの両方が含まれている。
このような設定で半教師付き検出器を適用すると、OODクラスをIDクラスとして誤分類する可能性がある。
我々は、CFL-Detector(Collaborative Feature-Logits Detector)と呼ばれるシンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-11-20T02:57:35Z) - Auxiliary Tasks Enhanced Dual-affinity Learning for Weakly Supervised
Semantic Segmentation [79.05949524349005]
AuxSegNet+は、サリエンシマップから豊富な情報を探索する弱教師付き補助学習フレームワークである。
また,サリエンシとセグメンテーションの特徴マップから画素レベルの親和性を学習するためのクロスタスク親和性学習機構を提案する。
論文 参考訳(メタデータ) (2024-03-02T10:03:21Z) - IntenDD: A Unified Contrastive Learning Approach for Intent Detection
and Discovery [12.905097743551774]
バックボーンを符号化する共有発話を利用した統一手法であるIntenDDを提案する。
IntenDDは完全に教師なしのコントラスト学習戦略を用いて表現学習を行う。
当社のアプローチは,3つのタスクのすべてにおいて,競争上のベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2023-10-25T16:50:24Z) - Channel-Wise Contrastive Learning for Learning with Noisy Labels [60.46434734808148]
チャネルワイド・コントラッシブ・ラーニング(CWCL)を導入し,真正なラベル情報とノイズを区別する。
従来のインスタンス単位のコントラスト学習(IWCL)とは異なり、CWCLはよりニュアンスでレジリエントな特徴を真のラベルと一致させる傾向にある。
まずCWCLを用いて、クリーンにラベル付けされたサンプルを識別し、次に、これらのサンプルを段階的に微調整する。
論文 参考訳(メタデータ) (2023-08-14T06:04:50Z) - IDAS: Intent Discovery with Abstractive Summarization [16.731183915325584]
目的発見における近年の競合手法は,抽象的な要約に基づく発話のクラスタリングによってより優れることを示す。
我々は、大規模言語モデルに促すことで、記述的発話ラベルの集合を収集するIDASアプローチに貢献する。
発話とそのノイズラベルは、凍結した事前訓練されたエンコーダによって符号化され、その後クラスタ化され、潜伏した意図を回復する。
論文 参考訳(メタデータ) (2023-05-31T12:19:40Z) - The Overlooked Classifier in Human-Object Interaction Recognition [82.20671129356037]
クラス間の意味的相関を分類ヘッドにエンコードし,重みをHOIの言語埋め込みで初期化する。
我々は,LSE-Sign という新しい損失を,長い尾を持つデータセット上でのマルチラベル学習を強化するために提案する。
我々は,物体検出と人間のポーズを明確なマージンで求める最先端技術よりも優れた,検出不要なHOI分類を可能にする。
論文 参考訳(メタデータ) (2022-03-10T23:35:00Z) - Joint-bone Fusion Graph Convolutional Network for Semi-supervised
Skeleton Action Recognition [65.78703941973183]
本稿では,CD-JBF-GCNをエンコーダとし,ポーズ予測ヘッドをデコーダとして使用する新しい相関駆動型ジョイントボーン・フュージョングラフ畳み込みネットワークを提案する。
具体的には、CD-JBF-GCは、関節ストリームと骨ストリームの間の運動伝達を探索することができる。
自己教師型トレーニング段階におけるポーズ予測に基づくオートエンコーダにより、未ラベルデータから動作表現を学習することができる。
論文 参考訳(メタデータ) (2022-02-08T16:03:15Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Active Learning for Node Classification: The Additional Learning Ability
from Unlabelled Nodes [33.97571297149204]
ラベル付け予算が限られているため、active learningはラベル付けするノードを慎重に選択することで、パフォーマンスの向上を目指している。
本研究は,ノード分類のための既存のアクティブラーニング手法が,単純な手法でかなり優れていることを示す。
ノード分類のための新しい潜在空間クラスタリングに基づくアクティブラーニング手法(LSCALE)を提案する。
論文 参考訳(メタデータ) (2020-12-13T13:59:48Z) - Boosting the Performance of Semi-Supervised Learning with Unsupervised
Clustering [10.033658645311188]
学習中の間欠的にラベルを完全に無視することは,小サンプル体制における性能を著しく向上させることを示す。
本手法は,最先端のSSLアルゴリズムの高速化に有効であることを示す。
論文 参考訳(メタデータ) (2020-12-01T14:19:14Z) - Iterate & Cluster: Iterative Semi-Supervised Action Recognition [8.134961550216618]
動作中に追跡される機能の時系列を前提に、システムはそのシーケンスをアクションに集約します。
本システムでは,わずかなアノテーションで認識性能を向上できることを示す。
論文 参考訳(メタデータ) (2020-06-12T02:19:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。