論文の概要: Multi-Level Features Contrastive Networks for Unsupervised Domain
Adaptation
- arxiv url: http://arxiv.org/abs/2109.06543v1
- Date: Tue, 14 Sep 2021 09:23:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 00:08:02.012104
- Title: Multi-Level Features Contrastive Networks for Unsupervised Domain
Adaptation
- Title(参考訳): 教師なしドメイン適応のためのマルチレベルコントラストネットワーク
- Authors: Le Liu, Jieren Cheng, Boyi Liu, Yue Yang, Ke Zhou, Qiaobo Da
- Abstract要約: 教師なしのドメイン適応は、ラベル付きソースドメインからモデルをトレーニングし、ラベルなしのターゲットドメインで予測することを目的としています。
既存のメソッドは2つのドメインをドメインレベルに直接アライメントするか、あるいは深い機能に基づいてクラスレベルのドメインアライメントを実行する傾向があります。
本稿では,クラスレベルのアライメント手法について述べる。
- 参考スコア(独自算出の注目度): 6.934905764152813
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised domain adaptation aims to train a model from the labeled source
domain to make predictions on the unlabeled target domain when the data
distribution of the two domains is different. As a result, it needs to reduce
the data distribution difference between the two domains to improve the model's
generalization ability. Existing methods tend to align the two domains directly
at the domain-level, or perform class-level domain alignment based on deep
feature. The former ignores the relationship between the various classes in the
two domains, which may cause serious negative transfer, the latter alleviates
it by introducing pseudo-labels of the target domain, but it does not consider
the importance of performing class-level alignment on shallow feature
representations. In this paper, we develop this work on the method of
class-level alignment. The proposed method reduces the difference between two
domains dramaticlly by aligning multi-level features. In the case that the two
domains share the label space, the class-level alignment is implemented by
introducing Multi-Level Feature Contrastive Networks (MLFCNet). In practice,
since the categories of samples in target domain are unavailable, we
iteratively use clustering algorithm to obtain the pseudo-labels, and then
minimize Multi-Level Contrastive Discrepancy (MLCD) loss to achieve more
accurate class-level alignment. Experiments on three real-world benchmarks
ImageCLEF-DA, Office-31 and Office-Home demonstrate that MLFCNet compares
favorably against the existing state-of-the-art domain adaptation methods.
- Abstract(参考訳): 教師なしドメイン適応(unsupervised domain adaptation)は、ラベル付きソースドメインからモデルをトレーニングして、2つのドメインのデータ分散が異なる場合にラベルなしターゲットドメインで予測することを目的とする。
結果として、モデルの一般化能力を改善するために、2つのドメイン間のデータ分散差を減らす必要がある。
既存のメソッドは2つのドメインをドメインレベルに直接アライメントするか、あるいは深い機能に基づいてクラスレベルのドメインアライメントを実行する傾向があります。
前者は2つのドメインの様々なクラス間の関係を無視し、後者はターゲットドメインの擬似ラベルを導入することでそれを緩和するが、浅い特徴表現でクラスレベルのアライメントを実行することが重要であるとは考えていない。
本稿では,クラスレベルアライメントの手法について述べる。
提案手法は,2つの領域間の差を劇的に低減する。
2つのドメインがラベル空間を共有する場合、クラスレベルのアライメントはMLFCNet(Multi-Level Feature Contrastive Networks)を導入して実装される。
実際には、対象領域のサンプルのカテゴリは利用できないため、クラスタリングアルゴリズムを用いて擬似ラベルを取得し、さらに、より正確なクラスレベルのアライメントを実現するために、MLCD(Multi-Level Contrastive Discrepancy)の損失を最小限に抑える。
ImageCLEF-DA、Office-31、Office-Homeの3つの実世界のベンチマークの実験では、MLFCNetは既存の最先端ドメイン適応手法と好意的に比較されている。
関連論文リスト
- CDA: Contrastive-adversarial Domain Adaptation [11.354043674822451]
我々はtextbfContrastive-adversarial textbfDomain textbfAdaptation textbf(CDA) と呼ばれるドメイン適応のための2段階モデルを提案する。
逆成分はドメインレベルのアライメントを促進するが、2段階のコントラスト学習はクラス情報を利用してドメイン間の高いクラス内コンパクト性を実現する。
論文 参考訳(メタデータ) (2023-01-10T07:43:21Z) - Making the Best of Both Worlds: A Domain-Oriented Transformer for
Unsupervised Domain Adaptation [31.150256154504696]
Unsupervised Domain Adaptation (UDA)は、限られた実験データセットから現実の制約のないドメインへのディープラーニングの展開を促進する。
ほとんどのUDAアプローチは、共通の埋め込み空間内の機能を整列させ、ターゲット予測に共有分類器を適用する。
本稿では,異なる領域に着目した2つの個別空間における特徴アライメントを同時に実施し,各領域に対してドメイン指向の分類器を作成することを提案する。
論文 参考訳(メタデータ) (2022-08-02T01:38:37Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - More Separable and Easier to Segment: A Cluster Alignment Method for
Cross-Domain Semantic Segmentation [41.81843755299211]
上記の問題を緩和するために,ドメイン仮定の近接性に基づく新しいUDAセマンティックセマンティックセマンティクス手法を提案する。
具体的には、同じ意味を持つクラスタピクセルにプロトタイプクラスタリング戦略を適用し、ターゲットドメインピクセル間の関連付けをより良く維持します。
GTA5とSynthiaで行った実験は,本法の有効性を実証した。
論文 参考訳(メタデータ) (2021-05-07T10:24:18Z) - Cross-Domain Grouping and Alignment for Domain Adaptive Semantic
Segmentation [74.3349233035632]
深層畳み込みニューラルネットワーク(CNN)内のソースドメインとターゲットドメインにセマンティックセグメンテーションネットワークを適用する既存の技術は、対象ドメイン自身や推定カテゴリ内のクラス間変異を考慮していない。
学習可能なクラスタリングモジュールと、クロスドメイングルーピングとアライメントと呼ばれる新しいドメイン適応フレームワークを導入する。
本手法はセマンティクスセグメンテーションにおける適応性能を一貫して向上させ,様々なドメイン適応設定において最先端を上回っている。
論文 参考訳(メタデータ) (2020-12-15T11:36:21Z) - Select, Label, and Mix: Learning Discriminative Invariant Feature
Representations for Partial Domain Adaptation [55.73722120043086]
部分領域適応のための識別的不変特徴表現を学習するための「選択、ラベル、混合(SLM)」フレームワークを開発した。
まず, 正の移動を避けるために, 外部からのサンプルを自動的にフィルタする, 単純で効率的な「選択」モジュールを提案する。
次に、「ラベル」モジュールは、ラベル付きソースドメインデータと生成されたターゲットドメインの擬似ラベルの両方を用いて分類器を反復的に訓練し、潜在空間の識別性を高める。
論文 参考訳(メタデータ) (2020-12-06T19:29:32Z) - Cross-domain Detection via Graph-induced Prototype Alignment [114.8952035552862]
カテゴリレベルのドメインアライメントを求めるグラフ誘発プロトタイプアライメント(GPA)フレームワークを提案する。
さらに,クラス不均衡がドメイン適応に与える影響を軽減するために,クラス重み付きコントラスト損失を設計する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-03-28T17:46:55Z) - Differential Treatment for Stuff and Things: A Simple Unsupervised
Domain Adaptation Method for Semantic Segmentation [105.96860932833759]
最先端のアプローチは、セマンティックレベルのアライメントの実行がドメインシフトの問題に取り組むのに役立つことを証明している。
我々は,物事領域や物事に対する異なる戦略による意味レベルのアライメントを改善することを提案する。
提案手法に加えて,提案手法は,ソースとターゲットドメイン間の最も類似した機能やインスタンス機能を最小化することにより,この問題の緩和に有効であることを示す。
論文 参考訳(メタデータ) (2020-03-18T04:43:25Z) - Bi-Directional Generation for Unsupervised Domain Adaptation [61.73001005378002]
教師なしのドメイン適応は、確立されたソースドメイン情報に依存するラベルなしのターゲットドメインを促進する。
従来の手法では、潜在空間におけるドメインの不一致を強制的に低減することで、本質的なデータ構造が破壊される。
本稿では、2つの中間領域をブリッジソースとターゲットドメインに補間する一貫した分類器を用いた双方向生成ドメイン適応モデルを提案する。
論文 参考訳(メタデータ) (2020-02-12T09:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。