論文の概要: Select, Label, and Mix: Learning Discriminative Invariant Feature
Representations for Partial Domain Adaptation
- arxiv url: http://arxiv.org/abs/2012.03358v1
- Date: Sun, 6 Dec 2020 19:29:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:56:27.044728
- Title: Select, Label, and Mix: Learning Discriminative Invariant Feature
Representations for Partial Domain Adaptation
- Title(参考訳): Select, Label, Mix: 部分領域適応のための識別的不変特徴表現の学習
- Authors: Aadarsh Sahoo, Rameswar Panda, Rogerio Feris, Kate Saenko, Abir Das
- Abstract要約: 部分領域適応のための識別的不変特徴表現を学習するための「選択、ラベル、混合(SLM)」フレームワークを開発した。
まず, 正の移動を避けるために, 外部からのサンプルを自動的にフィルタする, 単純で効率的な「選択」モジュールを提案する。
次に、「ラベル」モジュールは、ラベル付きソースドメインデータと生成されたターゲットドメインの擬似ラベルの両方を用いて分類器を反復的に訓練し、潜在空間の識別性を高める。
- 参考スコア(独自算出の注目度): 55.73722120043086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Partial domain adaptation which assumes that the unknown target label space
is a subset of the source label space has attracted much attention in computer
vision. Despite recent progress, existing methods often suffer from three key
problems: negative transfer, lack of discriminability and domain invariance in
the latent space. To alleviate the above issues, we develop a novel 'Select,
Label, and Mix' (SLM) framework that aims to learn discriminative invariant
feature representations for partial domain adaptation. First, we present a
simple yet efficient "select" module that automatically filters out the outlier
source samples to avoid negative transfer while aligning distributions across
both domains. Second, the "label" module iteratively trains the classifier
using both the labeled source domain data and the generated pseudo-labels for
the target domain to enhance the discriminability of the latent space. Finally,
the "mix" module utilizes domain mixup regularization jointly with the other
two modules to explore more intrinsic structures across domains leading to a
domain-invariant latent space for partial domain adaptation. Extensive
experiments on several benchmark datasets demonstrate the superiority of our
proposed framework over state-of-the-art methods.
- Abstract(参考訳): 未知のターゲットラベル空間がソースラベル空間のサブセットであると仮定する部分領域適応は、コンピュータビジョンにおいて多くの注目を集めている。
近年の進歩にもかかわらず、既存の手法は負の移動、識別可能性の欠如、潜在空間における領域不変性という3つの大きな問題に悩まされる。
上記の問題を緩和するため,部分領域適応のための識別的不変特徴表現の学習を目的とした,新しい「選択,ラベル,混合」フレームワークを開発した。
まず,2つの領域をまたいだ分布を整列しながら負の転送を避けるために,外部からのサンプルを自動的にフィルタする,シンプルで効率的な「選択」モジュールを提案する。
次に、「ラベル」モジュールは、ラベル付きソースドメインデータと生成されたターゲットドメインの擬似ラベルの両方を用いて分類器を反復的に訓練し、潜在空間の識別性を高める。
最後に、「mix」モジュールは、他の2つのモジュールと共同でドメインミックスアップ正規化を利用して、部分的ドメイン適応のためのドメイン不変ラテント空間につながるドメイン間のより固有の構造を探索する。
いくつかのベンチマークデータセットにおける広範囲な実験は、最先端のメソッドよりも提案フレームワークが優れていることを示している。
関連論文リスト
- Multisource Semisupervised Adversarial Domain Generalization Network for
Cross-Scene Sea-Land Clutter Classification [7.258979105586101]
既往の分布不一致を伴う海面干潟のリアルタイム予測は重要である。
本稿では,シーステンダッシュランドクラッタ分類のための多元半教師付きドメイン一般化ネットワーク(MSADGN)を提案する。
MSADGNはドメイン関連擬似ラベルモジュール、ドメイン不変モジュール、ドメイン固有モジュールの3つのモジュールから構成される。
論文 参考訳(メタデータ) (2024-02-09T10:50:28Z) - Inter-Domain Mixup for Semi-Supervised Domain Adaptation [108.40945109477886]
半教師付きドメイン適応(SSDA)は、ソースとターゲットのドメイン分布をブリッジすることを目的としており、少数のターゲットラベルが利用可能である。
既存のSSDAの作業は、ソースドメインとターゲットドメインの両方からラベル情報をフル活用して、ドメイン間の機能アライメントに失敗する。
本稿では,新しいSSDA手法であるIDMNE(Inter-domain Mixup with Neighborhood Expansion)を提案する。
論文 参考訳(メタデータ) (2024-01-21T10:20:46Z) - Domain-Invariant Feature Alignment Using Variational Inference For
Partial Domain Adaptation [6.04077629908308]
提案手法は既存の手法と同等の精度で優れている。
多くのクロスドメイン分類タスクにおける実験結果から,提案手法は既存手法に優れた精度と同等の精度をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-03T10:39:14Z) - Making the Best of Both Worlds: A Domain-Oriented Transformer for
Unsupervised Domain Adaptation [31.150256154504696]
Unsupervised Domain Adaptation (UDA)は、限られた実験データセットから現実の制約のないドメインへのディープラーニングの展開を促進する。
ほとんどのUDAアプローチは、共通の埋め込み空間内の機能を整列させ、ターゲット予測に共有分類器を適用する。
本稿では,異なる領域に着目した2つの個別空間における特徴アライメントを同時に実施し,各領域に対してドメイン指向の分類器を作成することを提案する。
論文 参考訳(メタデータ) (2022-08-02T01:38:37Z) - Multi-Level Features Contrastive Networks for Unsupervised Domain
Adaptation [6.934905764152813]
教師なしのドメイン適応は、ラベル付きソースドメインからモデルをトレーニングし、ラベルなしのターゲットドメインで予測することを目的としています。
既存のメソッドは2つのドメインをドメインレベルに直接アライメントするか、あるいは深い機能に基づいてクラスレベルのドメインアライメントを実行する傾向があります。
本稿では,クラスレベルのアライメント手法について述べる。
論文 参考訳(メタデータ) (2021-09-14T09:23:27Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Cross-Domain Adaptive Clustering for Semi-Supervised Domain Adaptation [85.6961770631173]
半監視されたドメイン適応では、残りのターゲットサンプルのターゲットドメインガイド機能内のクラスごとのいくつかのラベル付きサンプルが、その周辺に集約される。
この問題に対処するために,クロスドメイン適応クラスタリングという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-04-19T16:07:32Z) - Cross-Domain Grouping and Alignment for Domain Adaptive Semantic
Segmentation [74.3349233035632]
深層畳み込みニューラルネットワーク(CNN)内のソースドメインとターゲットドメインにセマンティックセグメンテーションネットワークを適用する既存の技術は、対象ドメイン自身や推定カテゴリ内のクラス間変異を考慮していない。
学習可能なクラスタリングモジュールと、クロスドメイングルーピングとアライメントと呼ばれる新しいドメイン適応フレームワークを導入する。
本手法はセマンティクスセグメンテーションにおける適応性能を一貫して向上させ,様々なドメイン適応設定において最先端を上回っている。
論文 参考訳(メタデータ) (2020-12-15T11:36:21Z) - Discriminative Cross-Domain Feature Learning for Partial Domain
Adaptation [70.45936509510528]
部分的なドメイン適応は、より大きく多様なソースドメインからの知識を、より少ないクラス数でより小さなターゲットドメインに適応させることを目的としています。
ドメイン適応の最近の実践は、ターゲットドメインの擬似ラベルを組み込むことで、効果的な特徴を抽出する。
ターゲットデータを少数のソースデータのみにアライメントすることが不可欠である。
論文 参考訳(メタデータ) (2020-08-26T03:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。