論文の概要: Focalized Contrastive View-invariant Learning for Self-supervised
Skeleton-based Action Recognition
- arxiv url: http://arxiv.org/abs/2304.00858v1
- Date: Mon, 3 Apr 2023 10:12:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 15:59:32.358270
- Title: Focalized Contrastive View-invariant Learning for Self-supervised
Skeleton-based Action Recognition
- Title(参考訳): 自己教師型骨格に基づく行動認識のためのFocalized Contrastive View-invariant Learning
- Authors: Qianhui Men, Edmond S. L. Ho, Hubert P. H. Shum, Howard Leung
- Abstract要約: 本稿では,FoCoViL(Focalized Contrastive View-invariant Learning)という自己教師型フレームワークを提案する。
FoCoViLは、視点が粗い整列された表現空間上のビュー固有情報を著しく抑制する。
アクションと共通のビュー不変プロパティを関連付け、異種プロパティを同時に分離する。
- 参考スコア(独自算出の注目度): 16.412306012741354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning view-invariant representation is a key to improving feature
discrimination power for skeleton-based action recognition. Existing approaches
cannot effectively remove the impact of viewpoint due to the implicit
view-dependent representations. In this work, we propose a self-supervised
framework called Focalized Contrastive View-invariant Learning (FoCoViL), which
significantly suppresses the view-specific information on the representation
space where the viewpoints are coarsely aligned. By maximizing mutual
information with an effective contrastive loss between multi-view sample pairs,
FoCoViL associates actions with common view-invariant properties and
simultaneously separates the dissimilar ones. We further propose an adaptive
focalization method based on pairwise similarity to enhance contrastive
learning for a clearer cluster boundary in the learned space. Different from
many existing self-supervised representation learning work that rely heavily on
supervised classifiers, FoCoViL performs well on both unsupervised and
supervised classifiers with superior recognition performance. Extensive
experiments also show that the proposed contrastive-based focalization
generates a more discriminative latent representation.
- Abstract(参考訳): ビュー不変表現の学習は,骨格に基づく行動認識における特徴識別能力の向上の鍵となる。
既存のアプローチでは、暗黙のビュー依存表現による視点の影響を効果的に排除することはできない。
本研究では,視点が粗い表現空間における視点固有情報を著しく抑圧する,focalized contrastive view-invariant learning(focovil)と呼ばれる自己教師付きフレームワークを提案する。
多視点サンプルペア間の効果的なコントラスト損失で相互情報を最大化することにより、FoCoViLはアクションを共通のビュー不変性に関連付け、異種情報を同時に分離する。
さらに,ペアワイズ類似性に基づく適応焦点化法を提案し,学習空間におけるよりクリアなクラスタ境界に対するコントラスト学習を強化する。
教師付き分類器に大きく依存する既存の自己教師付き表現学習作業とは異なり、FoCoViLは教師なし分類器と教師なし分類器の両方で優れた認識性能を持つ。
広範な実験により、コントラストベースの焦点化がより識別的な潜在表現を生成することも示されている。
関連論文リスト
- Language-Driven Visual Consensus for Zero-Shot Semantic Segmentation [114.72734384299476]
本稿では,言語駆動型ビジュアルコンセンサス(LDVC)アプローチを提案する。
クラス埋め込みを、その離散的で抽象的な性質からアンカーとして活用し、クラス埋め込みに向けて視覚的特徴を操る。
我々の手法は、目に見えないクラスに対するセグメンテーションモデルの能力を大幅に向上させる。
論文 参考訳(メタデータ) (2024-03-13T11:23:55Z) - Constrained Multiview Representation for Self-supervised Contrastive
Learning [4.817827522417457]
本稿では、異なる視点の重要度を測定するために、表現距離に基づく相互情報(MI)に基づく新しいアプローチを提案する。
周波数領域から抽出した多視点表現を利用して、相互情報に基づいてそれらの意義を再評価する。
論文 参考訳(メタデータ) (2024-02-05T19:09:33Z) - Cluster-aware Contrastive Learning for Unsupervised Out-of-distribution
Detection [0.0]
教師なしアウト・オブ・ディストリビューション(OOD)検出は、ラベル情報なしでトレーニングデータの分布外に落下するサンプルを分離することを目的としている。
本稿では,インスタンスレベルの情報と意味レベルの情報の両方を考慮した,教師なしOOD検出のためのクラスタ対応コントラスト学習(CCL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-06T07:21:03Z) - Semantics-Consistent Feature Search for Self-Supervised Visual
Representation Learning [15.242064747740116]
拡張手順中に異なる意味概念を含む望ましくないビューを構築するのは避けられない。
これにより表現の意味的一貫性が損なわれ、これらの拡張を特徴空間に無差別に近づけることになる。
本研究では,特徴量の増大と,この負の効果を緩和する新しい意味論的特徴探索(SCFS)手法を提案する。
論文 参考訳(メタデータ) (2022-12-13T11:13:59Z) - Matching Multiple Perspectives for Efficient Representation Learning [0.0]
本稿では,自己教師型学習とマルチパースペクティブマッチング技術を組み合わせたアプローチを提案する。
我々は,同一オブジェクトの複数ビューと多種多様な自己教師付き事前学習アルゴリズムを組み合わせることで,オブジェクト分類性能が向上することを示す。
論文 参考訳(メタデータ) (2022-08-16T10:33:13Z) - Visual Perturbation-aware Collaborative Learning for Overcoming the
Language Prior Problem [60.0878532426877]
本稿では,視覚的摂動校正の観点から,新しい協調学習手法を提案する。
具体的には、異なる摂動範囲で2種類のキュレートされた画像を構築するための視覚コントローラを考案する。
2つの診断VQA-CPベンチマークデータセットの実験結果は、その効果を明らかに示している。
論文 参考訳(メタデータ) (2022-07-24T23:50:52Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Deep Clustering by Semantic Contrastive Learning [67.28140787010447]
Semantic Contrastive Learning (SCL) と呼ばれる新しい変種を紹介します。
従来のコントラスト学習とディープクラスタリングの両方の特徴を探求する。
コントラスト学習と深層クラスタリングの強みを統一的なアプローチで増幅することができる。
論文 参考訳(メタデータ) (2021-03-03T20:20:48Z) - Heterogeneous Contrastive Learning: Encoding Spatial Information for
Compact Visual Representations [183.03278932562438]
本稿では,エンコーディング段階に空間情報を加えることで,対照的な目的と強いデータ拡張操作の間の学習の不整合を緩和する効果的な手法を提案する。
提案手法は,視覚表現の効率を向上し,自己指導型視覚表現学習の今後の研究を刺激する鍵となるメッセージを提供する。
論文 参考訳(メタデータ) (2020-11-19T16:26:25Z) - Fully Unsupervised Person Re-identification viaSelective Contrastive
Learning [58.5284246878277]
人物再識別(ReID)は、様々なカメラが捉えた画像の中から同一人物を検索することを目的としている。
教師なし特徴学習のための新しい選択型コントラスト学習フレームワークを提案する。
その結果,教師なしのReIDにおける手法の優位性について,最先端技術と比較した。
論文 参考訳(メタデータ) (2020-10-15T09:09:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。