論文の概要: The Enforced Transfer: A Novel Domain Adaptation Algorithm
- arxiv url: http://arxiv.org/abs/2201.10001v1
- Date: Mon, 24 Jan 2022 23:20:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-27 08:34:07.841882
- Title: The Enforced Transfer: A Novel Domain Adaptation Algorithm
- Title(参考訳): Enforced Transfer:新しいドメイン適応アルゴリズム
- Authors: Ye Gao, Brian Baucom, Karen Rose, Kristina Gordon, Hongning Wang, John
Stankovic
- Abstract要約: 既存のドメイン適応(DA)アルゴリズムはターゲットモデルをトレーニングし、ターゲットモデルを使用してターゲットデータセット内のすべてのサンプルを分類する。
このアプローチでは、いくつかのサンプルがターゲットドメインの分布よりもソースドメインの分布に近い可能性を認識することができません。
我々はこの状況に対処する新しいDAアルゴリズム Enforced Transfer を開発した。
- 参考スコア(独自算出の注目度): 25.510639595356597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing Domain Adaptation (DA) algorithms train target models and then use
the target models to classify all samples in the target dataset. While this
approach attempts to address the problem that the source and the target data
are from different distributions, it fails to recognize the possibility that,
within the target domain, some samples are closer to the distribution of the
source domain than the distribution of the target domain. In this paper, we
develop a novel DA algorithm, the Enforced Transfer, that deals with this
situation. A straightforward but effective idea to deal with this dilemma is to
use an out-of-distribution detection algorithm to decide if, during the testing
phase, a given sample is closer to the distribution of the source domain, the
target domain, or neither. In the first case, this sample is given to a machine
learning classifier trained on source samples. In the second case, this sample
is given to a machine learning classifier trained on target samples. In the
third case, this sample is discarded as neither an ML model trained on source
nor an ML model trained on target is suitable to classify it. It is widely
known that the first few layers in a neural network extract low-level features,
so the aforementioned approach can be extended from classifying samples in
three different scenarios to classifying the samples' activations after an
empirically determined layer in three different scenarios. The Enforced
Transfer implements the idea. On three types of DA tasks, we outperform the
state-of-the-art algorithms that we compare against.
- Abstract(参考訳): 既存のドメイン適応(DA)アルゴリズムはターゲットモデルをトレーニングし、ターゲットモデルを使用してターゲットデータセット内のすべてのサンプルを分類する。
このアプローチでは、ソースとターゲットデータが異なるディストリビューションから来ているという問題に対処しようとするが、ターゲットドメイン内では、いくつかのサンプルがターゲットドメインの分布よりもソースドメインの分布に近い可能性を認識することができない。
本稿では,この状況に対応する新しいdaアルゴリズムである強制伝達法を開発した。
このジレンマに対処するための単純だが効果的なアイデアは、テストフェーズ中に与えられたサンプルがソースドメインやターゲットドメインの分布に近いかどうかを決定するために、分散検出アルゴリズムを使用することである。
最初のケースでは、このサンプルはソースサンプルでトレーニングされた機械学習分類器に与えられる。
第2のケースでは、このサンプルはターゲットサンプルでトレーニングされた機械学習分類器に与えられる。
第3のケースでは、このサンプルはソースでトレーニングされたMLモデルもターゲットでトレーニングされたMLモデルも分類するのに適さないため、破棄される。
ニューラルネットワークの最初の数層が低レベルな特徴を抽出していることは広く知られているため、上記のアプローチは、3つの異なるシナリオでサンプルを分類することから、3つの異なるシナリオで経験的に決定されたレイヤの後にサンプルのアクティベーションを分類することまで拡張することができる。
Enforced Transferは、そのアイデアを実装している。
3種類のDAタスクでは、比較した最先端のアルゴリズムよりも優れています。
関連論文リスト
- Improving Domain Adaptation Through Class Aware Frequency Transformation [15.70058524548143]
Unsupervised Domain Adaptation (UDA)アルゴリズムのほとんどは、ラベル付きソースと非ラベル付きターゲットドメインの間のグローバルドメインシフトの削減に重点を置いている。
本稿では,従来の画像処理手法であるCAFT(Class Aware Frequency Transformation)に基づく新しい手法を提案する。
CAFTは、既存のUDAアルゴリズムの全体的な性能を改善するために、擬似ラベルに基づく一貫した低周波スワップを使用する。
論文 参考訳(メタデータ) (2024-07-28T18:16:41Z) - Make the U in UDA Matter: Invariant Consistency Learning for
Unsupervised Domain Adaptation [86.61336696914447]
ICON (Invariant Consistency Learning) の略。
我々は2つの領域に等しくの地位を与えることで、教師なしDAのUを作成することを提案する。
ICON は古典的な UDA ベンチマークである Office-Home と VisDA-2017 で最先端のパフォーマンスを実現し、挑戦的な WILDS 2.0 ベンチマークでは従来の方法よりも優れています。
論文 参考訳(メタデータ) (2023-09-22T09:43:32Z) - AVATAR: Adversarial self-superVised domain Adaptation network for TARget
domain [11.764601181046496]
本稿では,未ラベル対象領域データの予測のための教師なし領域適応(UDA)手法を提案する。
本稿では,AVATAR(Adversarial Self-superVised Domain Adaptation Network for the TARget domain)アルゴリズムを提案する。
提案手法は,3つのUDAベンチマークにおいて,最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-04-28T20:31:56Z) - Learning Feature Decomposition for Domain Adaptive Monocular Depth
Estimation [51.15061013818216]
改良されたアプローチは、深層学習の進歩で大きな成功をもたらしたが、それらは大量の地底深度アノテーションに依存している。
教師なしドメイン適応(UDA)は、教師付き学習の制約を緩和するため、ラベル付きソースデータからラベルなしターゲットデータに知識を転送する。
本稿では,その特徴空間をコンテンツやスタイルコンポーネントに分解することを学ぶための,学習特徴分解 for Adaptation (LFDA) と呼ばれる新しいMDEのためのUDA手法を提案する。
論文 参考訳(メタデータ) (2022-07-30T08:05:35Z) - UMAD: Universal Model Adaptation under Domain and Category Shift [138.12678159620248]
Universal Model Adaptation (UMAD)フレームワークは、ソースデータにアクセスせずに両方のUDAシナリオを処理する。
未知のサンプルと未知のサンプルを識別するのに役立つ情報整合性スコアを開発した。
オープンセットおよびオープンパーティルセット UDA シナリオの実験では、UMAD が最先端のデータ依存手法に匹敵する性能を示した。
論文 参考訳(メタデータ) (2021-12-16T01:22:59Z) - Unsupervised domain adaptation with non-stochastic missing data [0.6608945629704323]
対象領域に欠落するデータが存在する場合の分類問題に対する教師なし領域適応(UDA)について検討する。
命令はドメイン不変の潜在空間で実行され、完全なソースドメインからの間接的な監視を利用する。
データセットの適応、分類、計算を共同で行う利点を示す。
論文 参考訳(メタデータ) (2021-09-16T06:37:07Z) - Understanding the Limits of Unsupervised Domain Adaptation via Data
Poisoning [66.80663779176979]
教師なしドメイン適応(UDA)は、対象ドメインラベルなしでドメイン間の学習を可能にする。
本稿では,ソース領域誤りの最小化と,ターゲット領域誤りの低減を保証するための限界分布ミスマッチの有効性を示す。
そこで本研究では,UDA手法を誤用した新たなデータ中毒攻撃手法を提案する。
論文 参考訳(メタデータ) (2021-07-08T15:51:14Z) - CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation [1.2691047660244335]
Unsupervised Domain Adaptation (UDA) は、ラベル付きソース分布とラベル付きターゲット分布との整合を目標とし、ドメイン不変な予測モデルを得る。
半教師付きドメイン適応(CLDA)のためのコントラスト学習フレームワークを提案する。
CLDAは上記のすべてのデータセットに対して最先端の結果を達成する。
論文 参考訳(メタデータ) (2021-06-30T20:23:19Z) - UDALM: Unsupervised Domain Adaptation through Language Modeling [79.73916345178415]
複合分類とマスキング言語モデル損失を用いた微調整手順であるUDALMについて紹介します。
本実験では, 混合損失スケールと利用可能な目標データの量で訓練されたモデルの性能を, 停止基準として有効に用いることを示した。
この方法は、amazon reviewsセンチメントデータセットの12のドメインペアで評価され、9.1.74%の精度が得られ、最先端よりも1.11%の絶対的な改善が得られます。
論文 参考訳(メタデータ) (2021-04-14T19:05:01Z) - Effective Label Propagation for Discriminative Semi-Supervised Domain
Adaptation [76.41664929948607]
半教師付き領域適応(SSDA)法は,大規模な画像分類タスクにおいて大きな可能性を示している。
本稿では、ドメイン間およびドメイン内セマンティック情報を効果的に伝達することにより、この問題に対処する新しい効果的な方法を提案する。
ソースコードと事前訓練されたモデルも間もなくリリースされる予定です。
論文 参考訳(メタデータ) (2020-12-04T14:28:19Z) - Partially-Shared Variational Auto-encoders for Unsupervised Domain
Adaptation with Target Shift [11.873435088539459]
本稿では,教師なしドメイン適応(UDA)の目標シフトを考慮した新しいアプローチを提案する。
提案手法は部分共有変分オートエンコーダ (PS-VAE) であり, 特徴分布マッチングの代わりにペアワイズな特徴アライメントを用いる。
PS-VAEは、ラベル関連コンテンツを保存しながら、CycleGANベースのアーキテクチャで各サンプルの変換ドメインを相互変換する。
論文 参考訳(メタデータ) (2020-01-22T06:41:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。