論文の概要: Domain Adapting Ability of Self-Supervised Learning for Face Recognition
- arxiv url: http://arxiv.org/abs/2102.13319v1
- Date: Fri, 26 Feb 2021 06:23:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-01 13:53:13.153423
- Title: Domain Adapting Ability of Self-Supervised Learning for Face Recognition
- Title(参考訳): 顔認識のための自己監督学習のドメイン適応能力
- Authors: Chun-Hsien Lin and Bing-Fei Wu
- Abstract要約: 深層畳み込みネットワークは顔認識タスクにおいて大きなパフォーマンスを実現している。
ドメインの相違の課題は、現実世界のアプリケーションにまだ存在する。
本論文では,より優れた埋め込み空間を学習するために,自己監督型学習を採用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although deep convolutional networks have achieved great performance in face
recognition tasks, the challenge of domain discrepancy still exists in real
world applications. Lack of domain coverage of training data (source domain)
makes the learned models degenerate in a testing scenario (target domain). In
face recognition tasks, classes in two domains are usually different, so
classical domain adaptation approaches, assuming there are shared classes in
domains, may not be reasonable solutions for this problem. In this paper,
self-supervised learning is adopted to learn a better embedding space where the
subjects in target domain are more distinguishable. The learning goal is
maximizing the similarity between the embeddings of each image and its mirror
in both domains. The experiments show its competitive results compared with
prior works. To know the reason why it can achieve such performance, we further
discuss how this approach affects the learning of embeddings.
- Abstract(参考訳): 深い畳み込みネットワークは顔認識タスクで優れたパフォーマンスを達成していますが、ドメインの相違の課題は現実世界のアプリケーションにまだ存在します。
トレーニングデータ(ソースドメイン)のドメインカバレッジの欠如は、テストシナリオ(ターゲットドメイン)で学習したモデルを退化させます。
顔認識タスクでは、2つのドメインのクラスは通常異なるので、ドメインに共有クラスが存在すると仮定する古典的なドメイン適応アプローチは、この問題に対する合理的な解決策ではないかもしれない。
本稿では,対象領域の被写体がより識別可能な埋め込み空間を学習するために,自己教師付き学習を採用する。
学習目標は、各画像とミラーの両方の領域への埋め込みの類似性を最大化することである。
実験は、以前の作品と比較してその競争力のある結果を示しています。
このようなパフォーマンスを達成できる理由を知るため、このアプローチが組込み学習にどのように影響するかをさらに議論する。
関連論文リスト
- Cross-Domain Policy Adaptation by Capturing Representation Mismatch [53.087413751430255]
強化学習(RL)において、動的に異なる領域に移行できる効果的な政策を学ぶことが不可欠である。
本稿では、ソースドメインとターゲットドメインとの間に動的ミスマッチが存在する場合の動的適応設定について考察する。
対象領域でのみ表現学習を行い、ソース領域からの遷移における表現偏差を測定する。
論文 参考訳(メタデータ) (2024-05-24T09:06:12Z) - Deep face recognition with clustering based domain adaptation [57.29464116557734]
そこで本研究では,ターゲットドメインとソースがクラスを共有しない顔認識タスクを対象とした,クラスタリングに基づく新しいドメイン適応手法を提案する。
本手法は,特徴領域をグローバルに整列させ,その一方で,対象クラスタを局所的に識別することで,識別対象特徴を効果的に学習する。
論文 参考訳(メタデータ) (2022-05-27T12:29:11Z) - Domain-Invariant Proposals based on a Balanced Domain Classifier for
Object Detection [8.583307102907295]
画像からのオブジェクト認識は、興味のあるオブジェクトを自動的に見つけ、カテゴリと位置情報を返すことを意味する。
畳み込みニューラルネットワーク(CNN)や生成的敵ネットワークといった深層学習の研究により、この分野のパフォーマンスは大幅に改善された。
分布のミスマッチ、すなわちドメインシフトは、大幅なパフォーマンス低下につながります。
論文 参考訳(メタデータ) (2022-02-12T00:21:27Z) - Domain Adaptive Semantic Segmentation without Source Data [50.18389578589789]
モデルがソースドメイン上で事前学習されていることを前提として、ソースデータのないドメイン適応セマンティックセマンティックセマンティックセマンティクスについて検討する。
本稿では,この課題に対して,肯定的学習と否定的学習という2つの要素を用いた効果的な枠組みを提案する。
私たちのフレームワークは、パフォーマンスをさらに向上するために、他のメソッドに簡単に実装および組み込むことができます。
論文 参考訳(メタデータ) (2021-10-13T04:12:27Z) - Gradient Regularized Contrastive Learning for Continual Domain
Adaptation [86.02012896014095]
本稿では,ラベル付きソースドメインと非ラベル付きターゲットドメインのシーケンスでモデルを提示する連続的なドメイン適応の問題について検討する。
障害を解決するため,グラディエント正規化コントラスト学習(GRCL)を提案する。
Digits、DomainNet、Office-Caltechベンチマークの実験は、我々のアプローチの強力なパフォーマンスを示しています。
論文 参考訳(メタデータ) (2021-03-23T04:10:42Z) - Mitigating Domain Mismatch in Face Recognition Using Style Matching [0.0]
我々は,2つの手法を提案するスタイルミスマッチ問題として,顔認識におけるドメインミスマッチを定式化する。
まず,人間レベル判断を伴う領域判別器の設計を行い,訓練データに目標様画像をマイニングすることで,領域間隙を緩和する。
次に、バックボーンモデルの低レベル特徴マップからスタイル表現を抽出し、2つのドメインのスタイル分布をマッチングして共通のスタイル表現を求める。
論文 参考訳(メタデータ) (2021-02-26T06:43:50Z) - Contradistinguisher: A Vapnik's Imperative to Unsupervised Domain
Adaptation [7.538482310185133]
本研究では,コントラスト特徴を学習するContradistinguisherと呼ばれるモデルを提案する。
Office-31とVisDA-2017における最先端のデータセットを、シングルソースとマルチソースの両方で実現しています。
論文 参考訳(メタデータ) (2020-05-25T19:54:38Z) - Extending and Analyzing Self-Supervised Learning Across Domains [50.13326427158233]
近年,自己指導型表現学習が目覚ましい成果を上げている。
実験は主にImageNetや他の同様の大規模なインターネット画像データセット上で行われる。
我々は、前例のない様々なドメインで、いくつかのポピュラーな手法を実験した。
論文 参考訳(メタデータ) (2020-04-24T21:18:02Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。