論文の概要: 3D Human Action Representation Learning via Cross-View Consistency
Pursuit
- arxiv url: http://arxiv.org/abs/2104.14466v1
- Date: Thu, 29 Apr 2021 16:29:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 12:58:25.048974
- Title: 3D Human Action Representation Learning via Cross-View Consistency
Pursuit
- Title(参考訳): クロスビュー一貫性に基づく3次元人行動表現学習
- Authors: Linguo Li, Minsi Wang, Bingbing Ni, Hang Wang, Jiancheng Yang, Wenjun
Zhang
- Abstract要約: 教師なし3次元骨格に基づく行動表現(CrosSCLR)のためのクロスビューコントラスト学習フレームワークを提案する。
CrosSCLRは、シングルビューのコントラスト学習(SkeletonCLR)とクロスビューの一貫した知識マイニング(CVC-KM)モジュールの両方で構成されています。
- 参考スコア(独自算出の注目度): 52.19199260960558
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a Cross-view Contrastive Learning framework for
unsupervised 3D skeleton-based action Representation (CrosSCLR), by leveraging
multi-view complementary supervision signal. CrosSCLR consists of both
single-view contrastive learning (SkeletonCLR) and cross-view consistent
knowledge mining (CVC-KM) modules, integrated in a collaborative learning
manner. It is noted that CVC-KM works in such a way that high-confidence
positive/negative samples and their distributions are exchanged among views
according to their embedding similarity, ensuring cross-view consistency in
terms of contrastive context, i.e., similar distributions. Extensive
experiments show that CrosSCLR achieves remarkable action recognition results
on NTU-60 and NTU-120 datasets under unsupervised settings, with observed
higher-quality action representations. Our code is available at
https://github.com/LinguoLi/CrosSCLR.
- Abstract(参考訳): 本研究では,多視点補完型監視信号を利用した非教師なし3次元骨格型行動表現(CrosSCLR)のためのクロスビューコントラスト学習フレームワークを提案する。
CrosSCLRはシングルビューコントラスト学習(SkeletonCLR)とクロスビュー一貫した知識マイニング(CVC-KM)モジュールの両方で構成され、協調的な学習方法に統合されている。
CVC-KMは、高信頼の正負のサンプルとそれらの分布が、それらの埋め込み類似性に従ってビュー間で交換されるように機能し、対照的な文脈、すなわち類似の分布において、クロスビュー整合性を保証する。
大規模な実験により、NTU-60およびNTU-120データセットにおいて、高品質な動作表現が観察され、CrosSCLRが顕著な動作認識結果が得られることが示された。
私たちのコードはhttps://github.com/LinguoLi/CrosSCLRで利用可能です。
関連論文リスト
- SMC-NCA: Semantic-guided Multi-level Contrast for Semi-supervised Temporal Action Segmentation [53.010417880335424]
半教師付き時間的アクションセグメンテーション(SS-TA)は、長編ビデオにおいてフレームワイズ分類を行うことを目的としている。
近年の研究では、教師なし表現学習におけるコントラスト学習の可能性が示されている。
本稿では,SMC-NCA(Neighbourhood-Consistency-Aware Unit)を用いたセマンティック誘導型マルチレベルコントラスト方式を提案する。
論文 参考訳(メタデータ) (2023-12-19T17:26:44Z) - Cross-Model Cross-Stream Learning for Self-Supervised Human Action Recognition [19.86316311525552]
本稿ではまず,BYOLと呼ばれる新しいコントラスト学習法を適用し,骨格データから学習する。
SkeletonBYOLにインスパイアされた本論文では,クロスモデルおよびクロスストリームフレームワークをさらに紹介する。
論文 参考訳(メタデータ) (2023-07-15T12:37:18Z) - Semantic Positive Pairs for Enhancing Visual Representation Learning of Instance Discrimination methods [4.680881326162484]
インスタンス識別に基づく自己教師付き学習アルゴリズム(SSL)は有望な結果を示している。
類似したセマンティックコンテンツを用いてそれらの画像を識別し、肯定的な例として扱うアプローチを提案する。
我々は、ImageNet、STL-10、CIFAR-10の3つのベンチマークデータセットで、異なるインスタンス識別SSLアプローチで実験を行った。
論文 参考訳(メタデータ) (2023-06-28T11:47:08Z) - Cross-Stream Contrastive Learning for Self-Supervised Skeleton-Based
Action Recognition [22.067143671631303]
自己教師型骨格に基づく行動認識は、対照的な学習の発展とともに急速に成長する。
骨格に基づく行動表現学習(CSCLR)のためのクロスストリームコントラスト学習フレームワークを提案する。
具体的には、CSCLRはストリーム内コントラストペアを利用するだけでなく、ストリーム間コントラストペアをハードサンプルとして導入し、より良い表現学習を定式化する。
論文 参考訳(メタデータ) (2023-05-03T10:31:35Z) - Contrastive Instruction-Trajectory Learning for Vision-Language
Navigation [66.16980504844233]
視覚言語ナビゲーション(VLN)タスクでは、エージェントが自然言語の指示でターゲットに到達する必要がある。
先行研究は、命令-軌道対間の類似点と相違点を識別できず、サブ命令の時間的連続性を無視する。
本稿では、類似したデータサンプル間の分散と、異なるデータサンプル間の分散を探索し、ロバストなナビゲーションのための独特な表現を学習するContrastive Instruction-Trajectory Learningフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-08T06:32:52Z) - CoCon: Cooperative-Contrastive Learning [52.342936645996765]
自己教師付き視覚表現学習は効率的な映像分析の鍵である。
最近の画像表現の学習の成功は、コントラスト学習がこの課題に取り組むための有望なフレームワークであることを示唆している。
コントラスト学習の協調的バリエーションを導入し、ビュー間の相補的な情報を活用する。
論文 参考訳(メタデータ) (2021-04-30T05:46:02Z) - Mutual Contrastive Learning for Visual Representation Learning [1.9355744690301404]
本稿では,汎用視覚表現学習のための相互コントラスト学習(mcl)と呼ばれる協調学習手法を提案する。
mclの利点により、各モデルは他のモデルからさらに対照的な知識を学べ、より有意義な特徴表現に繋がる。
教師付きおよび自己教師付き画像分類、転送学習および少数ショット学習の実験結果は、mclが一貫したパフォーマンス向上をもたらすことを示している。
論文 参考訳(メタデータ) (2021-04-26T13:32:33Z) - SeCo: Exploring Sequence Supervision for Unsupervised Representation
Learning [114.58986229852489]
本稿では,空間的,シーケンシャル,時間的観点から,シーケンスの基本的および汎用的な監視について検討する。
私たちはContrastive Learning(SeCo)という特定の形式を導き出します。
SeCoは、アクション認識、未トリムアクティビティ認識、オブジェクト追跡に関する線形プロトコルにおいて、優れた結果を示す。
論文 参考訳(メタデータ) (2020-08-03T15:51:35Z) - Spatial-Temporal Multi-Cue Network for Continuous Sign Language
Recognition [141.24314054768922]
本稿では、視覚に基づくシーケンス学習問題を解決するために、時空間マルチキュー(STMC)ネットワークを提案する。
有効性を検証するため、3つの大規模CSLRベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-02-08T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。