論文の概要: AdaMatch: A Unified Approach to Semi-Supervised Learning and Domain
Adaptation
- arxiv url: http://arxiv.org/abs/2106.04732v1
- Date: Tue, 8 Jun 2021 23:39:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-10 15:31:53.474851
- Title: AdaMatch: A Unified Approach to Semi-Supervised Learning and Domain
Adaptation
- Title(参考訳): adamatch: 半教師付き学習とドメイン適応への統一的アプローチ
- Authors: David Berthelot, Rebecca Roelofs, Kihyuk Sohn, Nicholas Carlini, Alex
Kurakin
- Abstract要約: AdaMatchは、教師なしドメイン適応(UDA)、半教師付き学習(SSL)、半教師付きドメイン適応(SSDA)のタスクを統一する手法である。
広範にわたる実験的研究において、視覚分類タスクにおけるSSL、SSDA、UDAの各最先端技術との比較を行った。
AdaMatch は、DomainNet の UDA タスクの先行状態の精度をほぼ2倍にし、事前トレーニングで得られた先行状態の精度を6.4%上回っている。
- 参考スコア(独自算出の注目度): 38.510948869624194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We extend semi-supervised learning to the problem of domain adaptation to
learn significantly higher-accuracy models that train on one data distribution
and test on a different one. With the goal of generality, we introduce
AdaMatch, a method that unifies the tasks of unsupervised domain adaptation
(UDA), semi-supervised learning (SSL), and semi-supervised domain adaptation
(SSDA). In an extensive experimental study, we compare its behavior with
respective state-of-the-art techniques from SSL, SSDA, and UDA on vision
classification tasks. We find AdaMatch either matches or significantly exceeds
the state-of-the-art in each case using the same hyper-parameters regardless of
the dataset or task. For example, AdaMatch nearly doubles the accuracy compared
to that of the prior state-of-the-art on the UDA task for DomainNet and even
exceeds the accuracy of the prior state-of-the-art obtained with pre-training
by 6.4% when AdaMatch is trained completely from scratch. Furthermore, by
providing AdaMatch with just one labeled example per class from the target
domain (i.e., the SSDA setting), we increase the target accuracy by an
additional 6.1%, and with 5 labeled examples, by 13.6%.
- Abstract(参考訳): 半教師付き学習をドメイン適応問題に拡張し、あるデータ分布でトレーニングし、別のデータでテストする、かなり高い精度のモデルを学ぶ。
AdaMatchは、教師なしドメイン適応(UDA)、半教師付き学習(SSL)、半教師付きドメイン適応(SSDA)のタスクを統一する手法である。
広範にわたる実験的研究において、視覚分類タスクにおけるSSL、SSDA、UDAの各最先端技術との比較を行った。
AdaMatchは、データセットやタスクに関わらず、同じハイパーパラメータを使用して、各ケースの最先端を一致または大幅に上回っている。
例えば、AdaMatchは、DomainNetのUDAタスクにおける以前の最先端の精度をほぼ2倍にし、AdaMatchがゼロから完全にトレーニングされたときの事前トレーニングで得られた最先端の精度を6.4%上回る。
さらに、対象ドメインからクラス毎に1つのラベル付きサンプル(すなわちssa設定)でadamatchを提供することで、ターゲットの精度を6.1%向上させ、5つのラベル付きサンプルを13.6%向上させる。
関連論文リスト
- Divide and Adapt: Active Domain Adaptation via Customized Learning [56.79144758380419]
対象インスタンスを成層化可能な4つのカテゴリに分割する新しいADAフレームワークであるDiaNA(Divide-and-Adapt)を提案する。
不確実性とドメイン性に基づく新しいデータ分割プロトコルにより、DiaNAは最も有利なサンプルを正確に認識することができる。
の精神のおかげで、DiaNAはドメインギャップの大きなバリエーションでデータを処理できる。
論文 参考訳(メタデータ) (2023-07-21T14:37:17Z) - GaitSADA: Self-Aligned Domain Adaptation for mmWave Gait Recognition [14.750765172614836]
mmWaveレーダを用いた歩行認識は,mmWaveレーダの帰還信号から人間の歩行バイオメトリックスを捕捉する新しいユーザ識別法である。
この問題を軽減するために、GaitSADAと呼ばれる新しい自己整合ドメイン適応法を提案する。
実験により、GaitSADAは、低データ状態における平均精度で15.41%から26.32%の改善により、代表的ドメイン適応法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-01-31T03:21:08Z) - FedMM: Saddle Point Optimization for Federated Adversarial Domain
Adaptation [6.3434032890855345]
フェデレートされたドメイン適応は、クライアント間のラベルの不均衡の頻度のため、ユニークなミニマックストレーニングタスクである。
本稿では,フェデレーション適応問題に特化して設計されたFedMMと呼ばれる分散ミニマックスドメインを提案する。
我々はFedMMがドメインシフトした教師なしデータで定常点への収束を保証することを証明した。
論文 参考訳(メタデータ) (2021-10-16T05:32:03Z) - Seeking Similarities over Differences: Similarity-based Domain Alignment
for Adaptive Object Detection [86.98573522894961]
本研究では,Unsupervised Domain Adaptation (UDA) アルゴリズムが検出に使用するコンポーネントを一般化するフレームワークを提案する。
具体的には、最適な設計選択を生かした新しいUDAアルゴリズムViSGAを提案し、インスタンスレベルの特徴を集約する単純だが効果的な方法を提案する。
類似性に基づくグループ化と対角トレーニングの両方により、モデルでは、ゆるやかに整列されたドメインにまたがるすべてのインスタンスにマッチせざるを得ず、機能グループを粗い整列することに集中することが可能であることが示されています。
論文 参考訳(メタデータ) (2021-10-04T13:09:56Z) - Adaptive Consistency Regularization for Semi-Supervised Transfer
Learning [31.66745229673066]
我々は,半教師付き学習と移動学習を共同で検討し,より実践的で競争的なパラダイムへと導いた。
事前学習した重みとラベルなしの目標サンプルの両方の価値をよりよく活用するために、適応整合正則化を導入する。
提案手法は,Pseudo Label,Mean Teacher,MixMatchといった,最先端の半教師付き学習技術より優れた適応整合性正規化を実現する。
論文 参考訳(メタデータ) (2021-03-03T05:46:39Z) - Surprisingly Simple Semi-Supervised Domain Adaptation with Pretraining
and Consistency [93.89773386634717]
ビジュアルドメイン適応は、異なるソースドメインで利用可能なラベルを使用して、ターゲットのビジュアルドメインからイメージを分類する学習を含む。
いくつかの目標ラベルが存在する場合、(回転予測による)自己スーパービジョンや整合正則化といった単純な手法が、適切な目標分類器を学習するための対角アライメントなしで有効であることを示す。
我々の事前学習と一貫性(PAC)アプローチは、この半教師付きドメイン適応タスクにおいて、複数のデータセットにまたがる複数の対向的なドメインアライメント手法を超越して、技術精度を達成することができる。
論文 参考訳(メタデータ) (2021-01-29T18:40:17Z) - Deep Co-Training with Task Decomposition for Semi-Supervised Domain
Adaptation [80.55236691733506]
半教師付きドメイン適応(SSDA)は、ラベル付きソースドメインからトレーニングされたモデルを、異なるが関連するターゲットドメインに適応させることを目的としている。
本稿では,SSDAタスクを対象ドメイン内の半教師付き学習(SSL)タスクと,ドメイン間の非教師付きドメイン適応(UDA)タスクの2つのサブタスクに明示的に分解することを提案する。
論文 参考訳(メタデータ) (2020-07-24T17:57:54Z) - Adaptive Risk Minimization: Learning to Adapt to Domain Shift [109.87561509436016]
ほとんどの機械学習アルゴリズムの基本的な前提は、トレーニングとテストデータは、同じ基礎となる分布から引き出されることである。
本研究では,学習データをドメインに構造化し,複数のテスト時間シフトが存在する場合の領域一般化の問題点について考察する。
本稿では、適応リスク最小化(ARM)の枠組みを紹介し、モデルがトレーニング領域に適応することを学ぶことで、効果的な適応のために直接最適化される。
論文 参考訳(メタデータ) (2020-07-06T17:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。