論文の概要: Semantic Concentration for Domain Adaptation
- arxiv url: http://arxiv.org/abs/2108.05720v1
- Date: Thu, 12 Aug 2021 13:04:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-13 14:32:04.893586
- Title: Semantic Concentration for Domain Adaptation
- Title(参考訳): ドメイン適応のための意味集中
- Authors: Shuang Li, Mixue Xie, Fangrui Lv, Chi Harold Liu, Jian Liang, Chen
Qin, Wei Li
- Abstract要約: ドメイン適応(DA)は、ラベル豊富なソースドメインから関連するがラベルのないターゲットドメインへの知識転送によるラベルアノテーションとデータセットバイアスの問題に対する道を開く。
DA手法の主流は、2つのドメインの特徴分布を整列させることである。
本稿では,ドメイン適応のためのセマンティック集中モデルを提案する。
- 参考スコア(独自算出の注目度): 23.706231329913113
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptation (DA) paves the way for label annotation and dataset bias
issues by the knowledge transfer from a label-rich source domain to a related
but unlabeled target domain. A mainstream of DA methods is to align the feature
distributions of the two domains. However, the majority of them focus on the
entire image features where irrelevant semantic information, e.g., the messy
background, is inevitably embedded. Enforcing feature alignments in such case
will negatively influence the correct matching of objects and consequently lead
to the semantically negative transfer due to the confusion of irrelevant
semantics. To tackle this issue, we propose Semantic Concentration for Domain
Adaptation (SCDA), which encourages the model to concentrate on the most
principal features via the pair-wise adversarial alignment of prediction
distributions. Specifically, we train the classifier to class-wisely maximize
the prediction distribution divergence of each sample pair, which enables the
model to find the region with large differences among the same class of
samples. Meanwhile, the feature extractor attempts to minimize that
discrepancy, which suppresses the features of dissimilar regions among the same
class of samples and accentuates the features of principal parts. As a general
method, SCDA can be easily integrated into various DA methods as a regularizer
to further boost their performance. Extensive experiments on the cross-domain
benchmarks show the efficacy of SCDA.
- Abstract(参考訳): ドメイン適応(DA)は、ラベル豊富なソースドメインから関連するがラベルのないターゲットドメインへの知識転送によるラベルアノテーションとデータセットバイアスの問題に対する道を開く。
DA手法の主流は、2つのドメインの特徴分布を調整することである。
しかし、その大半は、無関係な意味情報、例えば乱雑な背景が必然的に埋め込まれている画像機能全体に焦点を当てている。
このような場合、特徴アライメントを強制することは、オブジェクトの正しいマッチングに悪影響を及ぼし、その結果、無関係な意味論の混乱による意味的に負の移動につながる。
この問題に対処するために,予測分布の対対逆アライメントによってモデルを最も主要な特徴に集中させるセマンティック集中型ドメイン適応(SCDA)を提案する。
具体的には,各サンプルペアの予測分布の発散をクラスごとに最大化するように分類器を訓練し,同じサンプルのクラス間で大きな差異のある領域をモデルで見つける。
一方、特徴抽出器は、同じ種類のサンプルの異種領域の特徴を抑制し、主成分の特徴を強調する不一致を最小化しようとする。
一般的な方法として、scdaは様々なdaメソッドに簡単に統合でき、その性能をさらに高めることができる。
クロスドメインベンチマークの大規模な実験はSCDAの有効性を示している。
関連論文リスト
- Semi Supervised Heterogeneous Domain Adaptation via Disentanglement and Pseudo-Labelling [4.33404822906643]
半教師付きドメイン適応法は、ソースラベル付きドメインからの情報を利用して、少ないラベル付きターゲットドメインを一般化する。
このような設定は半教師付き不均質ドメイン適応(SSHDA)と表記される。
SHEDD(Semi-supervised Heterogeneous Domain Adaptation via Disentanglement)は,対象ドメインの学習に適したエンドツーエンドのニューラルネットワークフレームワークである。
論文 参考訳(メタデータ) (2024-06-20T08:02:49Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Low-confidence Samples Matter for Domain Adaptation [47.552605279925736]
ドメイン適応(DA)は、知識をラベルの豊富なソースドメインから関連するがラベルの少ないターゲットドメインに転送することを目的としている。
低信頼度サンプルの処理による新しいコントラスト学習法を提案する。
提案手法を教師なしと半教師付きの両方のDA設定で評価する。
論文 参考訳(メタデータ) (2022-02-06T15:45:45Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Adaptively-Accumulated Knowledge Transfer for Partial Domain Adaptation [66.74638960925854]
部分ドメイン適応(PDA)は、ソースドメインラベル空間がターゲットドメインを置き換えるとき、現実的で困難な問題を扱う。
本稿では,2つの領域にまたがる関連カテゴリを整合させる適応的知識伝達フレームワーク(A$2KT)を提案する。
論文 参考訳(メタデータ) (2020-08-27T00:53:43Z) - Simultaneous Semantic Alignment Network for Heterogeneous Domain
Adaptation [67.37606333193357]
本稿では,カテゴリ間の相関を同時に利用し,各カテゴリ毎のセントロイドを整列させるために,aSimultaneous Semantic Alignment Network (SSAN)を提案する。
対象の擬似ラベルを利用することで、各カテゴリの特徴表現を整列させるために、ロバストな三重項中心のアライメント機構を明示的に適用する。
テキスト・ツー・イメージ、画像・画像・テキスト・ツー・テキストにわたる様々なHDAタスクの実験は、最先端のHDA手法に対するSSANの優位性を検証することに成功した。
論文 参考訳(メタデータ) (2020-08-04T16:20:37Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。