論文の概要: Unsupervised Multi-source Domain Adaptation Without Access to Source
Data
- arxiv url: http://arxiv.org/abs/2104.01845v1
- Date: Mon, 5 Apr 2021 10:45:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 21:19:08.198453
- Title: Unsupervised Multi-source Domain Adaptation Without Access to Source
Data
- Title(参考訳): ソースデータへのアクセスのない教師なしマルチソースドメイン適応
- Authors: Sk Miraj Ahmed, Dripta S. Raychaudhuri, Sujoy Paul, Samet Oymak, Amit
K. Roy-Chowdhury
- Abstract要約: Unsupervised Domain Adaptation (UDA)は、ラベル付きソースドメインから知識を転送することで、ラベル付きドメインの予測モデルを学ぶことを目的としている。
本稿では,ソースモデルと適切な重み付けを自動的に組み合わせ,少なくとも最良のソースモデルと同等の性能を発揮する新しい効率的なアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 58.551861130011886
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised Domain Adaptation (UDA) aims to learn a predictor model for an
unlabeled domain by transferring knowledge from a separate labeled source
domain. However, most of these conventional UDA approaches make the strong
assumption of having access to the source data during training, which may not
be very practical due to privacy, security and storage concerns. A recent line
of work addressed this problem and proposed an algorithm that transfers
knowledge to the unlabeled target domain from a single source model without
requiring access to the source data. However, for adaptation purposes, if there
are multiple trained source models available to choose from, this method has to
go through adapting each and every model individually, to check for the best
source. Thus, we ask the question: can we find the optimal combination of
source models, with no source data and without target labels, whose performance
is no worse than the single best source? To answer this, we propose a novel and
efficient algorithm which automatically combines the source models with
suitable weights in such a way that it performs at least as good as the best
source model. We provide intuitive theoretical insights to justify our claim.
Furthermore, extensive experiments are conducted on several benchmark datasets
to show the effectiveness of our algorithm, where in most cases, our method not
only reaches best source accuracy but also outperforms it.
- Abstract(参考訳): Unsupervised Domain Adaptation (UDA)は、ラベル付きソースドメインから知識を転送することで、ラベル付きドメインの予測モデルを学ぶことを目的としている。
しかしながら、これらの従来のudaアプローチのほとんどは、トレーニング中にソースデータにアクセスするという強い前提を定めているが、プライバシやセキュリティ、ストレージ上の懸念から、それほど実用的ではない。
最近の研究はこの問題に対処し、ソースデータへのアクセスを必要とせず、単一のソースモデルからラベルなしのターゲットドメインに知識を転送するアルゴリズムを提案している。
しかし、適応のためには、複数のトレーニングされたソースモデルが選択可能であれば、最適なソースをチェックするために、各モデルとすべてのモデルを個別に適応させる必要がある。
ソースデータなしで、ターゲットラベルなしで、ソースモデルの最適な組み合わせを見つけることができるだろうか。
そこで本研究では,ソースモデルと適切な重み付けを自動的に組み合わせ,少なくとも最良のソースモデルと同等の性能を発揮する新しい効率的なアルゴリズムを提案する。
我々の主張を正当化するために直感的な理論的洞察を提供する。
さらに、アルゴリズムの有効性を示すために、いくつかのベンチマークデータセットで広範な実験を行い、ほとんどの場合、我々の手法は最適なソース精度に到達するだけでなく、性能も向上する。
関連論文リスト
- Source-Free Domain-Invariant Performance Prediction [68.39031800809553]
本研究では,不確実性に基づく推定を主軸としたソースフリー手法を提案する。
オブジェクト認識データセットのベンチマーク実験により、既存のソースベースの手法は、限られたソースサンプルの可用性で不足していることが判明した。
提案手法は,現在の最先端のソースフリーおよびソースベース手法よりも優れており,ドメイン不変性能推定の有効性が確認されている。
論文 参考訳(メタデータ) (2024-08-05T03:18:58Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Unsupervised Adaptation of Semantic Segmentation Models without Source
Data [14.66682099621276]
意味的セグメンテーションのためのソースデータにアクセスすることなく、ソースモデルの教師なしドメイン適応という新しい問題を考察する。
本稿では,ソースモデルから知識を抽出する自己学習手法を提案する。
我々のフレームワークは、ターゲットデータに直接ソースモデルを適用した場合と比較して、大幅なパフォーマンス向上を実現できます。
論文 参考訳(メタデータ) (2021-12-04T15:13:41Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - Self-Supervised Noisy Label Learning for Source-Free Unsupervised Domain
Adaptation [87.60688582088194]
新規な自己監督雑音ラベル学習法を提案する。
本手法は最新の結果を容易に達成でき、他の手法を非常に大きなマージンで超えることができる。
論文 参考訳(メタデータ) (2021-02-23T10:51:45Z) - Unsupervised Domain Adaptation in the Absence of Source Data [0.7366405857677227]
本稿では、ソース領域から自然軸に沿って変化する対象領域にソース分類器を適応させる教師なしの手法を提案する。
分布シフトが明るさ、コントラスト、回転を伴うシナリオにおいて本手法を検証し、ラベル付きデータに制限されたシナリオにおいて微調整ベースラインよりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2020-07-20T16:22:14Z) - Multi-source Attention for Unsupervised Domain Adaptation [15.900069711477542]
ソース選択をアテンション学習問題としてモデル化し、特定のターゲットインスタンスのソースに対してアテンションを学習する。
この目的のために、まずソース固有の分類モデルと、ソースとターゲットドメイン間の関連性マップを独立に学習する。
次に、ソース固有のモデルの予測を集約するソースについて、注目度を学習する。
論文 参考訳(メタデータ) (2020-04-14T15:51:02Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。