論文の概要: Contrastive Representation Learning for Gaze Estimation
- arxiv url: http://arxiv.org/abs/2210.13404v1
- Date: Mon, 24 Oct 2022 17:01:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 14:05:15.940046
- Title: Contrastive Representation Learning for Gaze Estimation
- Title(参考訳): 視線推定のための対比表現学習
- Authors: Swati Jindal and Roberto Manduchi
- Abstract要約: ガゼコントラスト学習(Gaze Contrastive Learning, GazeCLR)という,視線推定のためのコントラスト表現学習フレームワークを提案する。
その結果, GazeCLR は領域間視線推定の性能を向上し,17.2% の相対的改善が得られた。
GazeCLRフレームワークは、数ショット評価のための最先端の表現学習手法と競合する。
- 参考スコア(独自算出の注目度): 8.121462458089143
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised learning (SSL) has become prevalent for learning
representations in computer vision. Notably, SSL exploits contrastive learning
to encourage visual representations to be invariant under various image
transformations. The task of gaze estimation, on the other hand, demands not
just invariance to various appearances but also equivariance to the geometric
transformations. In this work, we propose a simple contrastive representation
learning framework for gaze estimation, named Gaze Contrastive Learning
(GazeCLR). GazeCLR exploits multi-view data to promote equivariance and relies
on selected data augmentation techniques that do not alter gaze directions for
invariance learning. Our experiments demonstrate the effectiveness of GazeCLR
for several settings of the gaze estimation task. Particularly, our results
show that GazeCLR improves the performance of cross-domain gaze estimation and
yields as high as 17.2% relative improvement. Moreover, the GazeCLR framework
is competitive with state-of-the-art representation learning methods for
few-shot evaluation. The code and pre-trained models are available at
https://github.com/jswati31/gazeclr.
- Abstract(参考訳): 自己教師付き学習(SSL)は、コンピュータビジョンにおける学習表現に普及している。
特にSSLは、さまざまな画像変換の下で視覚表現が不変であることを奨励するために、対照的な学習を利用する。
一方、視線推定のタスクは、様々な外観に対する不変性だけでなく、幾何学的変換への同値性も要求する。
本研究では,Gaze Contrastive Learning (GazeCLR) という,視線推定のための単純なコントラスト表現学習フレームワークを提案する。
GazeCLRは、多視点データを利用して等価性を促進し、不変学習のための視線方向を変更しない選択されたデータ拡張技術に依存している。
本実験は,視線推定作業におけるGazeCLRの有効性を実証するものである。
特に, GazeCLR は領域間視線推定の性能を向上し,17.2% の相対的改善が得られた。
さらに、GazeCLRフレームワークは、数ショット評価のための最先端の表現学習手法と競合する。
コードと事前トレーニングされたモデルは、https://github.com/jswati31/gazeclrで入手できる。
関連論文リスト
- Contrastive Learning Via Equivariant Representation [19.112460889771423]
等価学習のための新しいコントラスト学習フレームワークCLeVER(Contrastive Learning Via Equivariant Representation)を提案する。
実験の結果,CLeVERはデータから同変情報を効果的に抽出し,組み込むことで,下流タスクにおけるベースラインモデルのトレーニング効率とロバスト性を向上させることができた。
論文 参考訳(メタデータ) (2024-06-01T01:53:51Z) - Decoupled Contrastive Learning for Long-Tailed Recognition [58.255966442426484]
Supervised Contrastive Loss (SCL) は視覚表現学習で人気がある。
ロングテール認識のシナリオでは、各クラスのサンプル数が不均衡である場合、2種類の正のサンプルを同じように扱うと、カテゴリー内距離に対するバイアス最適化が導かれる。
そこで我々は,尾級の低表現を緩和するために,頭級から尾級へ知識を伝達するためのパッチベースの自己蒸留法を提案する。
論文 参考訳(メタデータ) (2024-03-10T09:46:28Z) - CLIP-Gaze: Towards General Gaze Estimation via Visual-Linguistic Model [13.890404285565225]
本稿では、事前学習された視覚言語モデルを用いて、その伝達可能な知識を活用するCLIP-Gazeという新しいフレームワークを提案する。
我々のフレームワークは、視線推定タスクに視覚・言語間の相互モダリティアプローチを利用した最初のものである。
論文 参考訳(メタデータ) (2024-03-08T07:37:21Z) - Semi-supervised Contrastive Regression for Estimation of Eye Gaze [0.609170287691728]
本稿では、視線方向推定のための半教師付きコントラスト学習フレームワークを開発する。
小さなラベル付きガゼデータセットにより、このフレームワークは、目に見えない顔画像であっても、一般化されたソリューションを見つけることができる。
コントラスト回帰フレームワークは, 視線推定に用いられているいくつかの手法と比較して, 優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-05T04:11:38Z) - ArCL: Enhancing Contrastive Learning with Augmentation-Robust
Representations [30.745749133759304]
我々は,自己教師付きコントラスト学習の伝達可能性を分析する理論的枠組みを開発する。
対照的な学習は、その伝達可能性を制限するような、ドメイン不変の機能を学ぶのに失敗することを示す。
これらの理論的知見に基づき、Augmentation-robust Contrastive Learning (ArCL) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T09:26:20Z) - R\'enyiCL: Contrastive Representation Learning with Skew R\'enyi
Divergence [78.15455360335925]
我々はR'enyiCLという新しい頑健なコントラスト学習手法を提案する。
我々の手法は R'enyi divergence の変動的下界の上に構築されている。
我々は,R'enyi の対照的な学習目的が,自然に強い負のサンプリングと簡単な正のサンプリングを同時に行うことを示す。
論文 参考訳(メタデータ) (2022-08-12T13:37:05Z) - Towards Self-Supervised Gaze Estimation [32.91601919228028]
オンラインクラスタリングに基づく自己教師型アプローチSwAVの同種版SwATを提案する。
既存のベンチマークで、クロスデータセットおよびデータセット内評価タスクを最大57%、25%改善しました。
論文 参考訳(メタデータ) (2022-03-21T13:35:16Z) - Weak Augmentation Guided Relational Self-Supervised Learning [80.0680103295137]
本稿では、異なるインスタンス間の関係をモデル化して表現を学習する新しいリレーショナル自己教師型学習(ReSSL)フレームワークを提案する。
提案手法では,異なるインスタンス間でのペアワイズ類似度の分布を,テクトitrelationmetricとして高めている。
実験の結果,提案したReSSLは,ネットワークアーキテクチャの異なる最先端手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-03-16T16:14:19Z) - Why Do Self-Supervised Models Transfer? Investigating the Impact of
Invariance on Downstream Tasks [79.13089902898848]
自己教師付き学習は、非競合画像上での表現学習の強力なパラダイムである。
コンピュータビジョンにおける異なるタスクは、異なる(不変の)分散を符号化する機能を必要とすることを示す。
論文 参考訳(メタデータ) (2021-11-22T18:16:35Z) - Weakly Supervised Contrastive Learning [68.47096022526927]
この問題に対処するために,弱教師付きコントラスト学習フレームワーク(WCL)を導入する。
WCLはResNet50を使用して65%と72%のImageNet Top-1の精度を実現している。
論文 参考訳(メタデータ) (2021-10-10T12:03:52Z) - ReSSL: Relational Self-Supervised Learning with Weak Augmentation [68.47096022526927]
自己教師付き学習は、データアノテーションなしで視覚表現を学ぶことに成功しました。
本稿では,異なるインスタンス間の関係をモデル化して表現を学習する新しいリレーショナルSSLパラダイムを提案する。
提案したReSSLは,性能とトレーニング効率の両面で,従来の最先端アルゴリズムよりも大幅に優れています。
論文 参考訳(メタデータ) (2021-07-20T06:53:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。