論文の概要: Maximal Domain Independent Representations Improve Transfer Learning
- arxiv url: http://arxiv.org/abs/2306.00262v1
- Date: Thu, 1 Jun 2023 00:46:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 18:49:28.794872
- Title: Maximal Domain Independent Representations Improve Transfer Learning
- Title(参考訳): 最大領域独立表現は転校学習を改善する
- Authors: Adrian Shuai Li, Elisa Bertino, Xuan-Hong Dang, Ankush Singla, Yuhai
Tu, Mark N Wegman
- Abstract要約: ドメイン適応(DA)は、ソースドメインからトレーニングデータセットを適用して、ターゲットドメインの学習タスクに使用する。
DAの一般的なアプローチの1つは、すべての入力サンプルからジェネレータによって学習されたドメインに依存しない表現(DIRep)を作成することである。
本稿では,逆数モデルと変分オートエンコーダを組み合わせた新しい手法を提案する。
- 参考スコア(独自算出の注目度): 17.80623787348781
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptation (DA) adapts a training dataset from a source domain for use
in a learning task in a target domain in combination with data available at the
target. One popular approach for DA is to create a domain-independent
representation (DIRep) learned by a generator from all input samples and then
train a classifier on top of it using all labeled samples. A domain
discriminator is added to train the generator adversarially to exclude domain
specific features from the DIRep. However, this approach tends to generate
insufficient information for accurate classification learning. In this paper,
we present a novel approach that integrates the adversarial model with a
variational autoencoder. In addition to the DIRep, we introduce a
domain-dependent representation (DDRep) such that information from both DIRep
and DDRep is sufficient to reconstruct samples from both domains. We further
penalize the size of the DDRep to drive as much information as possible to the
DIRep, which maximizes the accuracy of the classifier in labeling samples in
both domains. We empirically evaluate our model using synthetic datasets and
demonstrate that spurious class-related features introduced in the source
domain are successfully absorbed by the DDRep. This leaves a rich and clean
DIRep for accurate transfer learning in the target domain. We further
demonstrate its superior performance against other algorithms for a number of
common image datasets. We also show we can take advantage of pretrained models.
- Abstract(参考訳): ドメイン適応(DA)は、ターゲットドメインの学習タスクに使用するソースドメインからトレーニングデータセットを、ターゲットで利用可能なデータと組み合わせて適用する。
DAの一般的なアプローチの1つは、すべての入力サンプルからジェネレータによって学習されたドメイン非依存表現(DIRep)を作成し、その上にラベル付きサンプルを使用して分類器を訓練することである。
DIRepからドメイン固有の特徴を除外するために、ジェネレータを逆さまに訓練するためにドメイン判別器が追加される。
しかし、この手法は正確な分類学習には不十分な情報を生み出す傾向にある。
本稿では,可変オートエンコーダと逆モデルを統合する新しい手法を提案する。
DIRepに加えて、ドメイン依存表現(DDRep)を導入し、DIRepとDDRepの両方からの情報が両ドメインからのサンプルを再構築するのに十分であることを示す。
さらにddrepのサイズをペナルティ化し,direpに対して可能な限り多くの情報を駆動することで,両ドメインのサンプルラベリングにおける分類器の精度を最大化する。
提案手法を合成データセットを用いて実験的に評価し,DDRepによりソース領域に導入されたスプリアスなクラス関連特徴が吸収されることを実証した。
これにより、ターゲットドメインでの正確な転送学習のためのリッチでクリーンなDIRepが残される。
我々はさらに,一般的な画像データセットに対して,他のアルゴリズムよりも優れた性能を示す。
また、トレーニング済みのモデルを活用できることも示します。
関連論文リスト
- Improving Domain Adaptation Through Class Aware Frequency Transformation [15.70058524548143]
Unsupervised Domain Adaptation (UDA)アルゴリズムのほとんどは、ラベル付きソースと非ラベル付きターゲットドメインの間のグローバルドメインシフトの削減に重点を置いている。
本稿では,従来の画像処理手法であるCAFT(Class Aware Frequency Transformation)に基づく新しい手法を提案する。
CAFTは、既存のUDAアルゴリズムの全体的な性能を改善するために、擬似ラベルに基づく一貫した低周波スワップを使用する。
論文 参考訳(メタデータ) (2024-07-28T18:16:41Z) - Balancing Discriminability and Transferability for Source-Free Domain
Adaptation [55.143687986324935]
従来のドメイン適応(DA)技術は、ドメイン不変表現を学習することでドメイン転送性を改善することを目的としている。
ラベル付けされたソースとラベル付けされていないターゲットへの同時アクセス要件は、ソースフリーなDA設定に適さない。
そこで本研究では,原文と翻訳サンプルの混在が識別可能性と伝達可能性のトレードオフを促進することを示す新しい知見を導出する。
論文 参考訳(メタデータ) (2022-06-16T09:06:22Z) - Domain-Agnostic Prior for Transfer Semantic Segmentation [197.9378107222422]
教師なしドメイン適応(UDA)はコンピュータビジョンコミュニティにおいて重要なトピックである。
ドメインに依存しない事前学習(DAP)を用いてドメイン間表現学習を規則化する機構を提案する。
我々の研究は、UDAがより良いプロキシ、おそらく他のデータモダリティの恩恵を受けていることを明らかにしている。
論文 参考訳(メタデータ) (2022-04-06T09:13:25Z) - Decompose to Adapt: Cross-domain Object Detection via Feature
Disentanglement [79.2994130944482]
本研究では,DDF(Domain Disentanglement Faster-RCNN)を設計し,タスク学習のための特徴のソース固有情報を排除した。
DDF法は,グローバルトリプルト・ディアンタングルメント(GTD)モジュールとインスタンス類似性・ディアンタングルメント(ISD)モジュールを用いて,グローバルおよびローカルステージでの機能ディアンタングルを容易にする。
提案手法は,4つのUDAオブジェクト検出タスクにおいて最先端の手法より優れており,広い適用性で有効であることが実証された。
論文 参考訳(メタデータ) (2022-01-06T05:43:01Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Re-energizing Domain Discriminator with Sample Relabeling for
Adversarial Domain Adaptation [88.86865069583149]
Unsupervised Domain Adapt (UDA)メソッドは、ドメインの競合トレーニングを利用して、機能を調整してドメインのギャップを減らす。
本研究では,Re-enforceable Adversarial Domain Adaptation (RADA) と呼ばれる効率的な最適化戦略を提案する。
RADAは、動的ドメインラベルを使用して、トレーニング中にドメイン識別器を再活性化することを目指しています。
論文 参考訳(メタデータ) (2021-03-22T08:32:55Z) - Discrepancy Minimization in Domain Generalization with Generative
Nearest Neighbors [13.047289562445242]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインでトレーニングされた機械学習モデルが、統計の異なるターゲットドメインでうまく一般化できないという、ドメインシフトの問題を扱う。
シフト対象領域の一般化を保証するのに失敗するソースドメイン全体にわたるドメイン不変表現を学習することにより、ドメイン一般化の問題を解決するために、複数のアプローチが提案されている。
本稿では,GNNDM(Generative Nearest Neighbor Based Discrepancy Minimization)法を提案する。
論文 参考訳(メタデータ) (2020-07-28T14:54:25Z) - Unified Multi-Domain Learning and Data Imputation using Adversarial
Autoencoder [5.933303832684138]
マルチドメイン学習(MDL)、データ計算(DI)、マルチタスク学習(MTL)を組み合わせた新しいフレームワークを提案する。
本手法のコアとなるのは,(1)ドメイン間の差を小さくするためにドメイン不変な埋め込みを生成すること,(2)各ドメインのデータ分布を学習し,欠落データに対するデータ計算を正しく行うこと,である。
論文 参考訳(メタデータ) (2020-03-15T19:55:07Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。