論文の概要: E-ADDA: Unsupervised Adversarial Domain Adaptation Enhanced by a New
Mahalanobis Distance Loss for Smart Computing
- arxiv url: http://arxiv.org/abs/2201.10001v5
- Date: Fri, 21 Apr 2023 15:53:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 18:38:35.696838
- Title: E-ADDA: Unsupervised Adversarial Domain Adaptation Enhanced by a New
Mahalanobis Distance Loss for Smart Computing
- Title(参考訳): E-ADDA: スマートコンピューティングのための新しいマハラノビス距離損失によって強化された教師なし逆境適応
- Authors: Ye Gao, Brian Baucom, Karen Rose, Kristina Gordon, Hongning Wang, John
Stankovic
- Abstract要約: スマートコンピューティングでは、特定のタスクのためのトレーニングサンプルのラベルが常に豊富であるとは限らない。
本稿では,Mahalanobis 距離損失の新たなバリエーションと分布外検出サブルーチンを併用した新しい UDA アルゴリズム TextitE-ADDA を提案する。
音響モードでは、E-ADDAはf1スコアで測定されたいくつかの最先端のUDAアルゴリズムを最大29.8%上回っている。
コンピュータビジョンのモダリティにおいて、評価結果は、人気UDAにおける新しい最先端性能を実現することを示唆している。
- 参考スコア(独自算出の注目度): 25.510639595356597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In smart computing, the labels of training samples for a specific task are
not always abundant. However, the labels of samples in a relevant but different
dataset are available. As a result, researchers have relied on unsupervised
domain adaptation to leverage the labels in a dataset (the source domain) to
perform better classification in a different, unlabeled dataset (target
domain). Existing non-generative adversarial solutions for UDA aim at achieving
domain confusion through adversarial training. The ideal scenario is that
perfect domain confusion is achieved, but this is not guaranteed to be true. To
further enforce domain confusion on top of the adversarial training, we propose
a novel UDA algorithm, \textit{E-ADDA}, which uses both a novel variation of
the Mahalanobis distance loss and an out-of-distribution detection subroutine.
The Mahalanobis distance loss minimizes the distribution-wise distance between
the encoded target samples and the distribution of the source domain, thus
enforcing additional domain confusion on top of adversarial training. Then, the
OOD subroutine further eliminates samples on which the domain confusion is
unsuccessful. We have performed extensive and comprehensive evaluations of
E-ADDA in the acoustic and computer vision modalities. In the acoustic
modality, E-ADDA outperforms several state-of-the-art UDA algorithms by up to
29.8%, measured in the f1 score. In the computer vision modality, the
evaluation results suggest that we achieve new state-of-the-art performance on
popular UDA benchmarks such as Office-31 and Office-Home, outperforming the
second best-performing algorithms by up to 17.9%.
- Abstract(参考訳): スマートコンピューティングでは、特定のタスクのトレーニングサンプルのラベルが常に豊富であるとは限らない。
しかし、関連するが異なるデータセットのサンプルのラベルが利用可能である。
その結果、研究者は教師なしのドメイン適応に頼ってデータセット(ソースドメイン)のラベルを活用し、異なるラベルなしデータセット(ターゲットドメイン)のより良い分類を実行した。
udaの既存の非生成的敵意ソリューションは、敵意トレーニングによるドメイン混乱の実現を目標としている。
理想的なシナリオは、完璧なドメインの混乱が達成されることですが、これが真実である保証はありません。
そこで本研究では,Mahalanobis 距離損失の新たな変化と分布外検出サブルーチンを併用した新しい UDA アルゴリズムである \textit{E-ADDA} を提案する。
マハラノビス距離損失は、符号化された対象サンプルとソースドメインの分布との分布ワイド距離を最小化し、敵の訓練の上に追加のドメイン混乱を引き起こす。
その後、OODサブルーチンはドメインの混乱が失敗したサンプルをさらに除去する。
音響およびコンピュータビジョンにおけるE-ADDAの広範かつ包括的な評価を行った。
音響モードでは、E-ADDAはf1スコアで測定されたいくつかの最先端UDAアルゴリズムを最大29.8%上回っている。
コンピュータビジョンのモダリティでは、Office-31やOffice-Homeのような人気のあるUDAベンチマークにおいて、新しい最先端性能を実現し、最高の性能のアルゴリズムを最大17.9%上回った。
関連論文リスト
- Improving Domain Adaptation Through Class Aware Frequency Transformation [15.70058524548143]
Unsupervised Domain Adaptation (UDA)アルゴリズムのほとんどは、ラベル付きソースと非ラベル付きターゲットドメインの間のグローバルドメインシフトの削減に重点を置いている。
本稿では,従来の画像処理手法であるCAFT(Class Aware Frequency Transformation)に基づく新しい手法を提案する。
CAFTは、既存のUDAアルゴリズムの全体的な性能を改善するために、擬似ラベルに基づく一貫した低周波スワップを使用する。
論文 参考訳(メタデータ) (2024-07-28T18:16:41Z) - Make the U in UDA Matter: Invariant Consistency Learning for
Unsupervised Domain Adaptation [86.61336696914447]
ICON (Invariant Consistency Learning) の略。
我々は2つの領域に等しくの地位を与えることで、教師なしDAのUを作成することを提案する。
ICON は古典的な UDA ベンチマークである Office-Home と VisDA-2017 で最先端のパフォーマンスを実現し、挑戦的な WILDS 2.0 ベンチマークでは従来の方法よりも優れています。
論文 参考訳(メタデータ) (2023-09-22T09:43:32Z) - AVATAR: Adversarial self-superVised domain Adaptation network for TARget
domain [11.764601181046496]
本稿では,未ラベル対象領域データの予測のための教師なし領域適応(UDA)手法を提案する。
本稿では,AVATAR(Adversarial Self-superVised Domain Adaptation Network for the TARget domain)アルゴリズムを提案する。
提案手法は,3つのUDAベンチマークにおいて,最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-04-28T20:31:56Z) - Learning Feature Decomposition for Domain Adaptive Monocular Depth
Estimation [51.15061013818216]
改良されたアプローチは、深層学習の進歩で大きな成功をもたらしたが、それらは大量の地底深度アノテーションに依存している。
教師なしドメイン適応(UDA)は、教師付き学習の制約を緩和するため、ラベル付きソースデータからラベルなしターゲットデータに知識を転送する。
本稿では,その特徴空間をコンテンツやスタイルコンポーネントに分解することを学ぶための,学習特徴分解 for Adaptation (LFDA) と呼ばれる新しいMDEのためのUDA手法を提案する。
論文 参考訳(メタデータ) (2022-07-30T08:05:35Z) - UMAD: Universal Model Adaptation under Domain and Category Shift [138.12678159620248]
Universal Model Adaptation (UMAD)フレームワークは、ソースデータにアクセスせずに両方のUDAシナリオを処理する。
未知のサンプルと未知のサンプルを識別するのに役立つ情報整合性スコアを開発した。
オープンセットおよびオープンパーティルセット UDA シナリオの実験では、UMAD が最先端のデータ依存手法に匹敵する性能を示した。
論文 参考訳(メタデータ) (2021-12-16T01:22:59Z) - Unsupervised domain adaptation with non-stochastic missing data [0.6608945629704323]
対象領域に欠落するデータが存在する場合の分類問題に対する教師なし領域適応(UDA)について検討する。
命令はドメイン不変の潜在空間で実行され、完全なソースドメインからの間接的な監視を利用する。
データセットの適応、分類、計算を共同で行う利点を示す。
論文 参考訳(メタデータ) (2021-09-16T06:37:07Z) - Understanding the Limits of Unsupervised Domain Adaptation via Data
Poisoning [66.80663779176979]
教師なしドメイン適応(UDA)は、対象ドメインラベルなしでドメイン間の学習を可能にする。
本稿では,ソース領域誤りの最小化と,ターゲット領域誤りの低減を保証するための限界分布ミスマッチの有効性を示す。
そこで本研究では,UDA手法を誤用した新たなデータ中毒攻撃手法を提案する。
論文 参考訳(メタデータ) (2021-07-08T15:51:14Z) - CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation [1.2691047660244335]
Unsupervised Domain Adaptation (UDA) は、ラベル付きソース分布とラベル付きターゲット分布との整合を目標とし、ドメイン不変な予測モデルを得る。
半教師付きドメイン適応(CLDA)のためのコントラスト学習フレームワークを提案する。
CLDAは上記のすべてのデータセットに対して最先端の結果を達成する。
論文 参考訳(メタデータ) (2021-06-30T20:23:19Z) - UDALM: Unsupervised Domain Adaptation through Language Modeling [79.73916345178415]
複合分類とマスキング言語モデル損失を用いた微調整手順であるUDALMについて紹介します。
本実験では, 混合損失スケールと利用可能な目標データの量で訓練されたモデルの性能を, 停止基準として有効に用いることを示した。
この方法は、amazon reviewsセンチメントデータセットの12のドメインペアで評価され、9.1.74%の精度が得られ、最先端よりも1.11%の絶対的な改善が得られます。
論文 参考訳(メタデータ) (2021-04-14T19:05:01Z) - Effective Label Propagation for Discriminative Semi-Supervised Domain
Adaptation [76.41664929948607]
半教師付き領域適応(SSDA)法は,大規模な画像分類タスクにおいて大きな可能性を示している。
本稿では、ドメイン間およびドメイン内セマンティック情報を効果的に伝達することにより、この問題に対処する新しい効果的な方法を提案する。
ソースコードと事前訓練されたモデルも間もなくリリースされる予定です。
論文 参考訳(メタデータ) (2020-12-04T14:28:19Z) - Partially-Shared Variational Auto-encoders for Unsupervised Domain
Adaptation with Target Shift [11.873435088539459]
本稿では,教師なしドメイン適応(UDA)の目標シフトを考慮した新しいアプローチを提案する。
提案手法は部分共有変分オートエンコーダ (PS-VAE) であり, 特徴分布マッチングの代わりにペアワイズな特徴アライメントを用いる。
PS-VAEは、ラベル関連コンテンツを保存しながら、CycleGANベースのアーキテクチャで各サンプルの変換ドメインを相互変換する。
論文 参考訳(メタデータ) (2020-01-22T06:41:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。