論文の概要: Learning to Match Distributions for Domain Adaptation
- arxiv url: http://arxiv.org/abs/2007.10791v3
- Date: Mon, 27 Jul 2020 01:44:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 12:54:16.363803
- Title: Learning to Match Distributions for Domain Adaptation
- Title(参考訳): ドメイン適応のための分布マッチング学習
- Authors: Chaohui Yu, Jindong Wang, Chang Liu, Tao Qin, Renjun Xu, Wenjie Feng,
Yiqiang Chen, Tie-Yan Liu
- Abstract要約: 本稿では,ドメイン間分布マッチングを自動的に学習する学習 to Match (L2M)を提案する。
L2Mは、メタネットワークを用いてデータ駆動方式で分布整合損失を学習することにより、誘導バイアスを低減する。
公開データセットの実験は、SOTA法よりもL2Mの方が優れていることを裏付けている。
- 参考スコア(独自算出の注目度): 116.14838935146004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When the training and test data are from different distributions, domain
adaptation is needed to reduce dataset bias to improve the model's
generalization ability. Since it is difficult to directly match the
cross-domain joint distributions, existing methods tend to reduce the marginal
or conditional distribution divergence using predefined distances such as MMD
and adversarial-based discrepancies. However, it remains challenging to
determine which method is suitable for a given application since they are built
with certain priors or bias. Thus they may fail to uncover the underlying
relationship between transferable features and joint distributions. This paper
proposes Learning to Match (L2M) to automatically learn the cross-domain
distribution matching without relying on hand-crafted priors on the matching
loss. Instead, L2M reduces the inductive bias by using a meta-network to learn
the distribution matching loss in a data-driven way. L2M is a general framework
that unifies task-independent and human-designed matching features. We design a
novel optimization algorithm for this challenging objective with
self-supervised label propagation. Experiments on public datasets substantiate
the superiority of L2M over SOTA methods. Moreover, we apply L2M to transfer
from pneumonia to COVID-19 chest X-ray images with remarkable performance. L2M
can also be extended in other distribution matching applications where we show
in a trial experiment that L2M generates more realistic and sharper MNIST
samples.
- Abstract(参考訳): トレーニングデータとテストデータが異なる分布から来ている場合、モデルの一般化能力を改善するためにデータセットバイアスを減らすためにドメイン適応が必要である。
交差領域の関節分布と直接一致することは困難であるため,既存の手法ではMDDや逆方向の相違点などの既定距離を用いて境界分布や条件分布のばらつきを減少させる傾向にある。
しかしながら、特定の事前またはバイアスで構築されているため、特定のアプリケーションに適した方法を決定することは依然として困難である。
したがって、それらは伝達可能な特徴と関節分布の関係を明らかにするのに失敗する。
本稿では,マッチングの損失に先立って手作りの事前情報に頼らずに,クロスドメイン分散マッチングを自動的に学習する学習方法を提案する。
代わりに、L2Mはメタネットワークを用いてデータ駆動方式で分布整合損失を学習することで誘導バイアスを低減する。
L2Mは、タスクに依存しない人間設計のマッチング機能を統一する一般的なフレームワークである。
本稿では,自己教師付きラベル伝搬を用いた新しい最適化アルゴリズムを設計する。
公開データセットの実験は、SOTA法よりもL2Mの方が優れていることを裏付けている。
また,肺炎から胸部X線画像への移行にはL2Mが有効であった。
L2Mは、L2MがよりリアルでシャープなMNISTサンプルを生成することを示す実験において、他の分散マッチングアプリケーションでも拡張することができる。
関連論文リスト
- Improving Distribution Alignment with Diversity-based Sampling [0.0]
ドメインシフトは機械学習においてユビキタスであり、実際のデータにデプロイすると、モデルのパフォーマンスが大幅に低下する可能性がある。
本稿では,各サンプル小バッチの多様性を誘導することにより,これらの推定値を改善することを提案する。
同時にデータのバランスを保ち、勾配のばらつきを低減し、それによってモデルの一般化能力を高める。
論文 参考訳(メタデータ) (2024-10-05T17:26:03Z) - Dataset Condensation with Latent Quantile Matching [5.466962214217334]
電流分布マッチング (DM) に基づく直流法は, 合成外乱と実外乱の遅延埋め込みの平均をマッチングすることにより, 合成データセットを学習する。
本稿では,2つの分布間の適合試験統計量の良さを最小化するために,遅延埋め込みの量子化と一致する潜在量子マッチング(LQM)を提案する。
論文 参考訳(メタデータ) (2024-06-14T09:20:44Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - Tackling Long-Tailed Category Distribution Under Domain Shifts [50.21255304847395]
既存のアプローチでは、両方の問題が存在するシナリオに対処できません。
本研究では,分散校正型分類損失,視覚意味マッピング,セマンティック類似性誘導拡張の3つの新しい機能ブロックを設計した。
AWA2-LTSとImageNet-LTSという2つの新しいデータセットが提案された。
論文 参考訳(メタデータ) (2022-07-20T19:07:46Z) - KL Guided Domain Adaptation [88.19298405363452]
ドメイン適応は重要な問題であり、現実世界のアプリケーションにしばしば必要である。
ドメイン適応文学における一般的なアプローチは、ソースとターゲットドメインに同じ分布を持つ入力の表現を学ぶことである。
確率的表現ネットワークにより、KL項はミニバッチサンプルにより効率的に推定できることを示す。
論文 参考訳(メタデータ) (2021-06-14T22:24:23Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Unsupervised Domain Adaptation in the Dissimilarity Space for Person
Re-identification [11.045405206338486]
そこで本稿では,ペア距離の整合性を実現するために,D-MMD(Dissimilarity-based Maximum Mean Discrepancy)の新たな損失を提案する。
3つの挑戦的なベンチマークデータセットによる実験結果から、D-MMDの損失は、ソースとドメインの分布がよりよくなるにつれて減少することが示された。
論文 参考訳(メタデータ) (2020-07-27T22:10:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。