論文の概要: Semi-supervised Domain Adaptation via Sample-to-Sample Self-Distillation
- arxiv url: http://arxiv.org/abs/2111.14353v1
- Date: Mon, 29 Nov 2021 07:13:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 17:03:31.917088
- Title: Semi-supervised Domain Adaptation via Sample-to-Sample Self-Distillation
- Title(参考訳): サンプルからサンプルへの自己蒸留による半教師付きドメイン適応
- Authors: Jeongbeen Yoon, Dahyun Kang, Minsu Cho
- Abstract要約: 半教師付きドメイン適応(Semi-supervised domain adapt, SSDA)とは、学習者がソースドメイン上に大きなラベル付きデータセットが与えられたときに、ラベル付きサンプルの小さなセットだけで新しいドメインに適応することである。
本稿では,サンプル対を用いた自己蒸留を用いて,対象領域にモデルを適応させる,ペアベースのSSDA法を提案する。
- 参考スコア(独自算出の注目度): 30.556465364799948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised domain adaptation (SSDA) is to adapt a learner to a new
domain with only a small set of labeled samples when a large labeled dataset is
given on a source domain. In this paper, we propose a pair-based SSDA method
that adapts a model to the target domain using self-distillation with sample
pairs. Each sample pair is composed of a teacher sample from a labeled dataset
(i.e., source or labeled target) and its student sample from an unlabeled
dataset (i.e., unlabeled target). Our method generates an assistant feature by
transferring an intermediate style between the teacher and the student, and
then train the model by minimizing the output discrepancy between the student
and the assistant. During training, the assistants gradually bridge the
discrepancy between the two domains, thus allowing the student to easily learn
from the teacher. Experimental evaluation on standard benchmarks shows that our
method effectively minimizes both the inter-domain and intra-domain
discrepancies, thus achieving significant improvements over recent methods.
- Abstract(参考訳): 半教師付きドメイン適応 (ssda) は、ソースドメインに大きなラベル付きデータセットが与えられたとき、ラベル付きサンプルの小さなセットだけで学習者を新しいドメインに適応させることである。
本稿では,サンプル対を用いた自己蒸留を用いて,対象領域にモデルを適応させるSSDA法を提案する。
各サンプルペアはラベル付きデータセット(ソースまたはラベル付きターゲット)からの教師サンプルとそのラベル付きデータセット(ラベル付きターゲット)からの学生サンプルで構成されている。
本手法は,教師と生徒の間で中間的なスタイルを伝達し,学生と助手の出力差を最小限に抑えてモデルを訓練することで,支援機能を生成する。
訓練中、アシスタントは2つのドメイン間の相違を徐々に橋渡しし、生徒は教師から容易に学ぶことができる。
評価実験の結果,本手法はドメイン間差とドメイン内差を効果的に最小化し,近年の手法に比べて大幅な改善が得られた。
関連論文リスト
- Semi-supervised Domain Adaptation via Prototype-based Multi-level
Learning [4.232614032390374]
半教師付きドメイン適応(SSDA)では、各クラスのいくつかのラベル付きターゲットサンプルが、完全なラベル付きソースドメインからターゲットドメインへの知識表現の転送を支援する。
本稿では,ラベル付き対象サンプルの可能性をうまく活用するために,プロトタイプベースのマルチレベル学習(ProML)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-04T10:09:30Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Adapting the Mean Teacher for keypoint-based lung registration under
geometric domain shifts [75.51482952586773]
ディープニューラルネットワークは一般的に、ラベル付きトレーニングデータが多く必要であり、トレーニングデータとテストデータの間のドメインシフトに弱い。
本稿では,ラベル付きソースからラベル付きターゲットドメインへのモデルの適用により,画像登録のための幾何学的領域適応手法を提案する。
本手法は,ベースラインモデルの精度を目標データに適合させながら,ベースラインモデルの50%/47%を継続的に改善する。
論文 参考訳(メタデータ) (2022-07-01T12:16:42Z) - Low-confidence Samples Matter for Domain Adaptation [47.552605279925736]
ドメイン適応(DA)は、知識をラベルの豊富なソースドメインから関連するがラベルの少ないターゲットドメインに転送することを目的としている。
低信頼度サンプルの処理による新しいコントラスト学習法を提案する。
提案手法を教師なしと半教師付きの両方のDA設定で評価する。
論文 参考訳(メタデータ) (2022-02-06T15:45:45Z) - Frequency Spectrum Augmentation Consistency for Domain Adaptive Object
Detection [107.52026281057343]
周波数スペクトル拡張整合(FSAC)フレームワークを4種類の低周波フィルタで構成する。
最初の段階では、オリジナルおよび拡張されたソースデータを全て利用して、オブジェクト検出器を訓練する。
第2段階では、予測一貫性のための自己学習を行うために、擬似ラベル付き拡張現実とターゲットデータを採用する。
論文 参考訳(メタデータ) (2021-12-16T04:07:01Z) - Cross-Domain Gradient Discrepancy Minimization for Unsupervised Domain
Adaptation [22.852237073492894]
Unsupervised Domain Adaptation (UDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに学習された知識を一般化することを目的としている。
本稿では,ソースサンプルとターゲットサンプルが生成する勾配の差を明示的に最小化する,クロスドメイン離散化(CGDM)手法を提案する。
対象サンプルの勾配信号を計算するために,クラスタリングに基づく自己教師型学習を通じて,対象の擬似ラベルを求める。
論文 参考訳(メタデータ) (2021-06-08T07:35:40Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - OVANet: One-vs-All Network for Universal Domain Adaptation [78.86047802107025]
既存のメソッドは、検証または未知のサンプルの事前定義された比率に基づいて未知のサンプルを拒否するしきい値を手動で設定します。
本稿では,ソースサンプルを用いて閾値を学習し,対象領域に適応する手法を提案する。
私たちの考えは、ソースドメインの最小クラス間距離は、ターゲットの既知のか未知かを決定するための良いしきい値であるべきです。
論文 参考訳(メタデータ) (2021-04-07T18:36:31Z) - Semi-supervised Domain Adaptation based on Dual-level Domain Mixing for
Semantic Segmentation [34.790169990156684]
私たちは、少数のラベル付きターゲットデータと大量のラベル付きソースデータが利用可能である半監視ドメイン適応(SSDA)のより実用的な設定に焦点を当てています。
領域レベルとサンプルレベルのドメインギャップを低減する2種類のデータミキシング手法を提案する。
総合的視点と部分的視点から2段階の混合データに基づいて,2つの相補的ドメイン混合教師を得ることができる。
論文 参考訳(メタデータ) (2021-03-08T12:33:17Z) - MiniMax Entropy Network: Learning Category-Invariant Features for Domain Adaptation [29.43532067090422]
逆学習に基づくMMEN(MiniMax Entropy Networks)と呼ばれる実装が容易な手法を提案する。
ドメイン差に対処するためにジェネレータを使用する既存のアプローチとは異なり、MMENはラベルのないターゲットサンプルからカテゴリ情報を学習することに重点を置いている。
論文 参考訳(メタデータ) (2019-04-21T13:39:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。