論文の概要: Semi-supervised Models are Strong Unsupervised Domain Adaptation
Learners
- arxiv url: http://arxiv.org/abs/2106.00417v1
- Date: Tue, 1 Jun 2021 11:59:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-02 14:13:38.362399
- Title: Semi-supervised Models are Strong Unsupervised Domain Adaptation
Learners
- Title(参考訳): 半教師付きモデルは強い教師なしドメイン適応学習者である
- Authors: Yabin Zhang, Haojian Zhang, Bin Deng, Shuai Li, Kui Jia, Lei Zhang
- Abstract要約: 非教師付きドメイン適応(UDA)と半教師付き学習(SSL)は、機械学習における高価な手動アノテーションを減らすための典型的な2つの戦略である。
UDAとSSLはタスクの目的とソリューションに関して密接に関連しています。
最先端のSSLメソッドは、DomainNetの挑戦的なUDAベンチマークにおいて、既存のUDAメソッドよりも大幅に優れています。
- 参考スコア(独自算出の注目度): 48.415097698361045
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Unsupervised domain adaptation (UDA) and semi-supervised learning (SSL) are
two typical strategies to reduce expensive manual annotations in machine
learning. In order to learn effective models for a target task, UDA utilizes
the available labeled source data, which may have different distributions from
unlabeled samples in the target domain, while SSL employs few manually
annotated target samples. Although UDA and SSL are seemingly very different
strategies, we find that they are closely related in terms of task objectives
and solutions, and SSL is a special case of UDA problems. Based on this
finding, we further investigate whether SSL methods work on UDA tasks. By
adapting eight representative SSL algorithms on UDA benchmarks, we show that
SSL methods are strong UDA learners. Especially, state-of-the-art SSL methods
significantly outperform existing UDA methods on the challenging UDA benchmark
of DomainNet, and state-of-the-art UDA methods could be further enhanced with
SSL techniques. We thus promote that SSL methods should be employed as
baselines in future UDA studies and expect that the revealed relationship
between UDA and SSL could shed light on future UDA development. Codes are
available at \url{https://github.com/YBZh}.
- Abstract(参考訳): unsupervised domain adaptation (uda) と semi-supervised learning (ssl) の2つは、機械学習における高価な手動アノテーションを減らすための典型的な戦略である。
ターゲットタスクの効果的なモデルを学ぶために、UDAは利用可能なラベル付きソースデータを使用し、ターゲットドメイン内のラベルなしサンプルと異なる分布を持つ可能性がある。
UDAとSSLは全く異なる戦略のように見えるが、それらはタスクの目的とソリューションに関して密接に関連しており、SSLはUDA問題の特別なケースである。
この結果に基づき、SSLメソッドが UDA タスクで機能するかどうかをさらに調査する。
UDAベンチマークに8つの代表的なSSLアルゴリズムを適用することで、SSLメソッドが強力なUDA学習者であることが分かる。
特に、最先端のSSLメソッドは、DomainNetの挑戦的なUDAベンチマークにおいて既存のUDAメソッドよりも大幅に優れており、最先端のUDAメソッドはSSL技術によってさらに強化される可能性がある。
したがって,今後のUDA研究のベースラインとしてSSLメソッドを採用することを推奨し,UDAとSSLの関係を明らかにすることによって,今後のUDA開発に光を当てることが期待できる。
コードは \url{https://github.com/ybzh} で入手できる。
関連論文リスト
- Towards Adversarial Robustness And Backdoor Mitigation in SSL [0.562479170374811]
Self-Supervised Learning (SSL)は、ラベルのないデータから表現を学習する際の大きな可能性を示している。
SSLメソッドは、最近、バックドア攻撃に対して脆弱であることが示されている。
この作業はSSLのバックドア攻撃に対する防御に対処することを目的としている。
論文 参考訳(メタデータ) (2024-03-23T19:21:31Z) - GPS-SSL: Guided Positive Sampling to Inject Prior Into Self-Supervised
Learning [19.76623480364484]
我々は,自己監視学習(SSL)の正のサンプル選択に事前知識を注入するために,自己監視学習(GPS-SSL)をガイドする。
GPS-SSLは、SimCLRやBYOLなどのSSLメソッドに適用できる。
強力なDAを使用する場合であっても、GPS-SSLは未調査領域のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-01-03T21:39:06Z) - Active Semi-Supervised Learning by Exploring Per-Sample Uncertainty and
Consistency [30.94964727745347]
そこで我々は,ASSL(Active Semi-supervised Learning)と呼ばれる手法を提案し,低コストでモデルの精度を向上させる。
ASSLには、ラベルなしデータの使用により、アクティブラーニング(AL)よりもダイナミックなモデル更新が含まれている。
ASSLは同じ性能を保ちながら、半教師あり学習(SSL)の約5.3倍の計算効率を達成した。
論文 参考訳(メタデータ) (2023-03-15T22:58:23Z) - A Survey on Self-supervised Learning: Algorithms, Applications, and Future Trends [82.64268080902742]
自己教師付き学習(SSL)は、ラベル付きラベルを頼らずにラベル付きデータから識別的特徴を学習することを目的としている。
SSLは最近大きな注目を集め、多くの関連するアルゴリズムの開発に繋がった。
本稿では,アルゴリズム的側面,アプリケーション領域,3つの重要なトレンド,オープンな研究課題を含む,多様なSSL手法のレビューを行う。
論文 参考訳(メタデータ) (2023-01-13T14:41:05Z) - OpenLDN: Learning to Discover Novel Classes for Open-World
Semi-Supervised Learning [110.40285771431687]
半教師付き学習(SSL)は、教師付き学習のアノテーションボトルネックに対処する主要なアプローチの1つである。
最近のSSLメソッドは、ラベルなしデータの大規模なリポジトリを有効活用して、ラベル付きデータの小さなセットに依存しながら、パフォーマンスを向上させることができる。
この研究は、ペアワイズ類似度損失を利用して新しいクラスを発見するOpenLDNを導入している。
論文 参考訳(メタデータ) (2022-07-05T18:51:05Z) - DATA: Domain-Aware and Task-Aware Pre-training [94.62676913928831]
我々は、自己教師付き学習(SSL)に特化した、シンプルで効果的なNASアプローチであるDataを提示する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションなど,下流タスクにおける計算コストの広い範囲にわたる有望な結果を実現する。
論文 参考訳(メタデータ) (2022-03-17T02:38:49Z) - Self-Supervised Learning of Graph Neural Networks: A Unified Review [50.71341657322391]
ラベルなしサンプルを多用する新たなパラダイムとして,自己教師型学習が登場している。
SSLを用いたグラフニューラルネットワーク(GNNs)のトレーニング方法の統一レビューを提供します。
gnnに対するssl手法の処理は,様々な手法の類似性と相違に光を当て,新しい手法やアルゴリズムの開発段階を定めている。
論文 参考訳(メタデータ) (2021-02-22T03:43:45Z) - Label Propagation with Augmented Anchors: A Simple Semi-Supervised
Learning baseline for Unsupervised Domain Adaptation [44.388751924238655]
本研究では,UDAのためのSSL技術の適切な拡張について検討する。
LP を UDA に適用する際の課題を分析し,親和性グラフ/行列構成の条件を理論的に解析する。
実験により、このような単純なSSL拡張は、ドメイン不変の機能学習のUDAメソッドよりも改善されていることが示された。
論文 参考訳(メタデータ) (2020-07-15T14:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。