論文の概要: Focalized Contrastive View-invariant Learning for Self-supervised
Skeleton-based Action Recognition
- arxiv url: http://arxiv.org/abs/2304.00858v1
- Date: Mon, 3 Apr 2023 10:12:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 15:59:32.358270
- Title: Focalized Contrastive View-invariant Learning for Self-supervised
Skeleton-based Action Recognition
- Title(参考訳): 自己教師型骨格に基づく行動認識のためのFocalized Contrastive View-invariant Learning
- Authors: Qianhui Men, Edmond S. L. Ho, Hubert P. H. Shum, Howard Leung
- Abstract要約: 本稿では,FoCoViL(Focalized Contrastive View-invariant Learning)という自己教師型フレームワークを提案する。
FoCoViLは、視点が粗い整列された表現空間上のビュー固有情報を著しく抑制する。
アクションと共通のビュー不変プロパティを関連付け、異種プロパティを同時に分離する。
- 参考スコア(独自算出の注目度): 16.412306012741354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning view-invariant representation is a key to improving feature
discrimination power for skeleton-based action recognition. Existing approaches
cannot effectively remove the impact of viewpoint due to the implicit
view-dependent representations. In this work, we propose a self-supervised
framework called Focalized Contrastive View-invariant Learning (FoCoViL), which
significantly suppresses the view-specific information on the representation
space where the viewpoints are coarsely aligned. By maximizing mutual
information with an effective contrastive loss between multi-view sample pairs,
FoCoViL associates actions with common view-invariant properties and
simultaneously separates the dissimilar ones. We further propose an adaptive
focalization method based on pairwise similarity to enhance contrastive
learning for a clearer cluster boundary in the learned space. Different from
many existing self-supervised representation learning work that rely heavily on
supervised classifiers, FoCoViL performs well on both unsupervised and
supervised classifiers with superior recognition performance. Extensive
experiments also show that the proposed contrastive-based focalization
generates a more discriminative latent representation.
- Abstract(参考訳): ビュー不変表現の学習は,骨格に基づく行動認識における特徴識別能力の向上の鍵となる。
既存のアプローチでは、暗黙のビュー依存表現による視点の影響を効果的に排除することはできない。
本研究では,視点が粗い表現空間における視点固有情報を著しく抑圧する,focalized contrastive view-invariant learning(focovil)と呼ばれる自己教師付きフレームワークを提案する。
多視点サンプルペア間の効果的なコントラスト損失で相互情報を最大化することにより、FoCoViLはアクションを共通のビュー不変性に関連付け、異種情報を同時に分離する。
さらに,ペアワイズ類似性に基づく適応焦点化法を提案し,学習空間におけるよりクリアなクラスタ境界に対するコントラスト学習を強化する。
教師付き分類器に大きく依存する既存の自己教師付き表現学習作業とは異なり、FoCoViLは教師なし分類器と教師なし分類器の両方で優れた認識性能を持つ。
広範な実験により、コントラストベースの焦点化がより識別的な潜在表現を生成することも示されている。
関連論文リスト
- Discriminative Anchor Learning for Efficient Multi-view Clustering [59.11406089896875]
マルチビュークラスタリング(DALMC)のための識別的アンカー学習を提案する。
元のデータセットに基づいて、識別的なビュー固有の特徴表現を学習する。
これらの表現に基づいて異なるビューからアンカーを構築することで、共有アンカーグラフの品質が向上します。
論文 参考訳(メタデータ) (2024-09-25T13:11:17Z) - An Information Compensation Framework for Zero-Shot Skeleton-based Action Recognition [49.45660055499103]
ゼロショットの人間の骨格に基づく行動認識は、トレーニング中に見られるカテゴリ外の行動を認識するモデルを構築することを目的としている。
従来の研究では、シーケンスの視覚的空間分布と意味的空間分布の整合性に焦点が当てられていた。
強固で頑健な表現を得るために,新たな損失関数サンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:53:01Z) - Constrained Multiview Representation for Self-supervised Contrastive
Learning [4.817827522417457]
本稿では、異なる視点の重要度を測定するために、表現距離に基づく相互情報(MI)に基づく新しいアプローチを提案する。
周波数領域から抽出した多視点表現を利用して、相互情報に基づいてそれらの意義を再評価する。
論文 参考訳(メタデータ) (2024-02-05T19:09:33Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Cluster-aware Contrastive Learning for Unsupervised Out-of-distribution
Detection [0.0]
教師なしアウト・オブ・ディストリビューション(OOD)検出は、ラベル情報なしでトレーニングデータの分布外に落下するサンプルを分離することを目的としている。
本稿では,インスタンスレベルの情報と意味レベルの情報の両方を考慮した,教師なしOOD検出のためのクラスタ対応コントラスト学習(CCL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-06T07:21:03Z) - Semantics-Consistent Feature Search for Self-Supervised Visual
Representation Learning [15.242064747740116]
拡張手順中に異なる意味概念を含む望ましくないビューを構築するのは避けられない。
これにより表現の意味的一貫性が損なわれ、これらの拡張を特徴空間に無差別に近づけることになる。
本研究では,特徴量の増大と,この負の効果を緩和する新しい意味論的特徴探索(SCFS)手法を提案する。
論文 参考訳(メタデータ) (2022-12-13T11:13:59Z) - Matching Multiple Perspectives for Efficient Representation Learning [0.0]
本稿では,自己教師型学習とマルチパースペクティブマッチング技術を組み合わせたアプローチを提案する。
我々は,同一オブジェクトの複数ビューと多種多様な自己教師付き事前学習アルゴリズムを組み合わせることで,オブジェクト分類性能が向上することを示す。
論文 参考訳(メタデータ) (2022-08-16T10:33:13Z) - Visual Perturbation-aware Collaborative Learning for Overcoming the
Language Prior Problem [60.0878532426877]
本稿では,視覚的摂動校正の観点から,新しい協調学習手法を提案する。
具体的には、異なる摂動範囲で2種類のキュレートされた画像を構築するための視覚コントローラを考案する。
2つの診断VQA-CPベンチマークデータセットの実験結果は、その効果を明らかに示している。
論文 参考訳(メタデータ) (2022-07-24T23:50:52Z) - Deep Clustering by Semantic Contrastive Learning [67.28140787010447]
Semantic Contrastive Learning (SCL) と呼ばれる新しい変種を紹介します。
従来のコントラスト学習とディープクラスタリングの両方の特徴を探求する。
コントラスト学習と深層クラスタリングの強みを統一的なアプローチで増幅することができる。
論文 参考訳(メタデータ) (2021-03-03T20:20:48Z) - Heterogeneous Contrastive Learning: Encoding Spatial Information for
Compact Visual Representations [183.03278932562438]
本稿では,エンコーディング段階に空間情報を加えることで,対照的な目的と強いデータ拡張操作の間の学習の不整合を緩和する効果的な手法を提案する。
提案手法は,視覚表現の効率を向上し,自己指導型視覚表現学習の今後の研究を刺激する鍵となるメッセージを提供する。
論文 参考訳(メタデータ) (2020-11-19T16:26:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。