論文の概要: Joint Contrastive Learning for Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2006.10297v1
- Date: Thu, 18 Jun 2020 06:25:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 13:15:02.752695
- Title: Joint Contrastive Learning for Unsupervised Domain Adaptation
- Title(参考訳): 教師なしドメイン適応のための共同コントラスト学習
- Authors: Changhwa Park, Jonghyun Lee, Jaeyoon Yoo, Minhoe Hur, Sungroh Yoon
- Abstract要約: 本稿では, 目標誤差に対して, より管理しやすくするために, 共同エラーを明示的に考慮する別の上限を提案する。
連立比較学習を導入し, 連立誤差の最小化に欠かせない, クラスレベルの識別的特徴を見出す。
2つの実世界のデータセットの実験では、JCLが最先端の手法より優れていることが示されている。
- 参考スコア(独自算出の注目度): 20.799729748233343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Enhancing feature transferability by matching marginal distributions has led
to improvements in domain adaptation, although this is at the expense of
feature discrimination. In particular, the ideal joint hypothesis error in the
target error upper bound, which was previously considered to be minute, has
been found to be significant, impairing its theoretical guarantee. In this
paper, we propose an alternative upper bound on the target error that
explicitly considers the joint error to render it more manageable. With the
theoretical analysis, we suggest a joint optimization framework that combines
the source and target domains. Further, we introduce Joint Contrastive Learning
(JCL) to find class-level discriminative features, which is essential for
minimizing the joint error. With a solid theoretical framework, JCL employs
contrastive loss to maximize the mutual information between a feature and its
label, which is equivalent to maximizing the Jensen-Shannon divergence between
conditional distributions. Experiments on two real-world datasets demonstrate
that JCL outperforms the state-of-the-art methods.
- Abstract(参考訳): 限界分布の一致による特徴伝達可能性の向上は、特徴識別を犠牲にしながらも、ドメイン適応の改善につながっている。
特に、従来は微小であると考えられていた目標誤差の上界における理想的な合同仮説誤差は、理論的な保証を損なうことが判明した。
本稿では, 目標誤差に対する代替上限を提案し, より管理しやすくするために, 共同誤差を明示的に考慮する。
理論的解析により、ソースとターゲットドメインを組み合わせた共同最適化フレームワークを提案する。
さらに,ジョイント・コントラスト・ラーニング(jcl)を導入し,クラスレベルの判別的特徴を見いだし,ジョイントエラーの最小化に不可欠である。
固い理論的枠組みにより、JCLは特徴とラベルの間の相互情報を最大化するために対照的な損失を生かし、条件分布間のジェンセン=シャノンの発散を最大化するのと等価である。
2つの実世界のデータセットの実験では、JCLが最先端の手法より優れていることが示されている。
関連論文リスト
- Theoretical Guarantees for Domain Adaptation with Hierarchical Optimal
Transport [0.0]
ドメイン適応は統計学習理論において重要な問題として生じる。
近年の進歩は、領域適応アルゴリズムの成功は、ソースとターゲット領域の確率分布のばらつきを最小限に抑える能力に大きく依存していることを示している。
階層的最適輸送によるドメイン適応のための新しい理論的枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-24T15:34:09Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - Learning Unbiased Transferability for Domain Adaptation by Uncertainty
Modeling [107.24387363079629]
ドメイン適応は、ラベル付けされたソースドメインからラベル付けされていない、あるいはラベル付けされていないが関連するターゲットドメインに知識を転送することを目的としています。
ソース内のアノテートされたデータの量とターゲットドメインとの間の不均衡のため、ターゲットの分布のみがソースドメインにアライメントされる。
本稿では,非暴力的非暴力的移動可能性推定プラグイン(UTEP)を提案し,非暴力的移動を最適化するDA法において,識別器の不確実性をモデル化する。
論文 参考訳(メタデータ) (2022-06-02T21:58:54Z) - On Tilted Losses in Machine Learning: Theory and Applications [26.87656095874882]
指数傾き(英: Exponential tilting)は、統計学、確率、情報理論、最適化などの分野で一般的に用いられる技法である。
本研究では、指数傾斜を用いて個人損失の影響を柔軟に調整するEMMへの簡単な拡張について検討する。
フレームワークはEMMを一貫して上回り、最先端の、問題固有のアプローチと競合するパフォーマンスを提供できることが分かりました。
論文 参考訳(メタデータ) (2021-09-13T17:33:42Z) - Margin Preserving Self-paced Contrastive Learning Towards Domain
Adaptation for Medical Image Segmentation [51.93711960601973]
クロスモーダル医療画像セグメンテーションのための自己ペースコントラスト学習モデルを保存する新しいマージンを提案する。
プログレッシブに洗練されたセマンティックプロトタイプの指導により、埋め込み表現空間の識別性を高めるために、コントラスト損失を減少させる新しいマージンが提案される。
クロスモーダル心セグメンテーションタスクの実験は、MPSCLが意味セグメンテーション性能を大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-03-15T15:23:10Z) - A Unified Joint Maximum Mean Discrepancy for Domain Adaptation [73.44809425486767]
本論文は,最適化が容易なjmmdの統一形式を理論的に導出する。
統合JMMDから、JMMDは分類に有利な特徴ラベル依存を低下させることを示す。
本稿では,その依存を促進する新たなmmd行列を提案し,ラベル分布シフトにロバストな新しいラベルカーネルを考案する。
論文 参考訳(メタデータ) (2021-01-25T09:46:14Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Beyond $\mathcal{H}$-Divergence: Domain Adaptation Theory With
Jensen-Shannon Divergence [21.295136514836788]
広範に評価された経験的ドメイン逆行訓練と,$mathcalH$-divergenceに基づく理論上の相似性を明らかにする。
我々は,Jensen-Shannon分散に基づく上層および下層ターゲットのリスク境界を直接証明することによって,新たな理論的枠組みを確立する。
論文 参考訳(メタデータ) (2020-07-30T16:19:59Z) - Rethink Maximum Mean Discrepancy for Domain Adaptation [77.2560592127872]
本論文は,(1)最大平均距離の最小化は,それぞれソースとクラス内距離の最大化に等しいが,その差を暗黙の重みと共同で最小化し,特徴判別性は低下する,という2つの本質的な事実を理論的に証明する。
いくつかのベンチマークデータセットの実験は、理論的な結果の有効性を証明しただけでなく、我々のアプローチが比較した最先端手法よりも大幅に向上できることを実証した。
論文 参考訳(メタデータ) (2020-07-01T18:25:10Z) - Self-adaptive Re-weighted Adversarial Domain Adaptation [12.73753413032972]
自己適応型再重み付き対向ドメイン適応手法を提案する。
条件分布の観点からドメインアライメントを強化する。
実証的な証拠は、提案されたモデルが標準的なドメイン適応データセットで芸術の状態を上回ります。
論文 参考訳(メタデータ) (2020-05-30T08:35:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。