論文の概要: Semi-Supervised Transfer Boosting (SS-TrBoosting)
- arxiv url: http://arxiv.org/abs/2412.03212v1
- Date: Wed, 04 Dec 2024 10:57:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:09:22.614086
- Title: Semi-Supervised Transfer Boosting (SS-TrBoosting)
- Title(参考訳): 半超高速トランスファーブースティング(SS-TrBoosting)
- Authors: Lingfei Deng, Changming Zhao, Zhenbang Du, Kun Xia, Dongrui Wu,
- Abstract要約: 半教師付きドメイン適応(SSDA)は、少ないラベル付きターゲットデータを用いて、ターゲットドメインの高性能モデルを訓練することを目的としている。
我々は、新しい微調整フレームワーク、半教師あり転送促進(SS-TrBoosting)を提案する。
より効率的なデータ伝送とデータプライバシ保護のために,SS-TrBoostingを半教師なしソースフリードメイン適応(SS-SFDA)に拡張するためのソースデータ生成手法を提案する。
- 参考スコア(独自算出の注目度): 13.324712107139355
- License:
- Abstract: Semi-supervised domain adaptation (SSDA) aims at training a high-performance model for a target domain using few labeled target data, many unlabeled target data, and plenty of auxiliary data from a source domain. Previous works in SSDA mainly focused on learning transferable representations across domains. However, it is difficult to find a feature space where the source and target domains share the same conditional probability distribution. Additionally, there is no flexible and effective strategy extending existing unsupervised domain adaptation (UDA) approaches to SSDA settings. In order to solve the above two challenges, we propose a novel fine-tuning framework, semi-supervised transfer boosting (SS-TrBoosting). Given a well-trained deep learning-based UDA or SSDA model, we use it as the initial model, generate additional base learners by boosting, and then use all of them as an ensemble. More specifically, half of the base learners are generated by supervised domain adaptation, and half by semi-supervised learning. Furthermore, for more efficient data transmission and better data privacy protection, we propose a source data generation approach to extend SS-TrBoosting to semi-supervised source-free domain adaptation (SS-SFDA). Extensive experiments showed that SS-TrBoosting can be applied to a variety of existing UDA, SSDA and SFDA approaches to further improve their performance.
- Abstract(参考訳): 半教師付きドメイン適応(SSDA)は、少数のラベル付きターゲットデータ、多くのラベル付きターゲットデータ、およびソースドメインからの多くの補助データを使用して、ターゲットドメインの高性能モデルをトレーニングすることを目的としている。
SSDAの以前の研究は、主にドメイン間の転送可能な表現の学習に焦点を当てていた。
しかし、ソースとターゲットドメインが同じ条件付き確率分布を共有するような特徴空間を見つけることは困難である。
さらに、既存の教師なしドメイン適応(UDA)アプローチをSSDA設定に拡張するフレキシブルで効果的な戦略は存在しない。
上記の2つの課題を解決するため、我々は新しい微調整フレームワーク、半教師あり転送促進(SS-TrBoosting)を提案する。
十分に訓練されたディープラーニングベース UDA あるいは SSDA モデルを考えると、初期モデルとして使用し、強化によってベース学習者を追加し、それらをアンサンブルとして使用する。
具体的には、基礎学習者の半数は教師付きドメイン適応によって、半分は半教師付き学習によって生成される。
さらに、より効率的なデータ伝送とデータプライバシ保護のために、SS-TrBoostingを半教師なしソースフリードメイン適応(SS-SFDA)に拡張するためのソースデータ生成手法を提案する。
SS-TrBoostingは、既存のUDA、SSDA、SFDAの様々なアプローチに適用でき、さらなる性能向上が期待できる。
関連論文リスト
- Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - CoSDA: Continual Source-Free Domain Adaptation [78.47274343972904]
ソースデータにアクセスせずに、ソースフリードメイン適応(SFDA)は、ソースドメインのトレーニングされたモデルからターゲットドメインに知識を転送する。
最近では、ソースドメインのデータプライバシ保護の必要性から、SFDAの人気が高まっている。
教師-学生モデルペアを2倍高速に最適化し,整合性学習機能を備えた,CoSDAという連続的ソースフリードメイン適応手法を提案する。
論文 参考訳(メタデータ) (2023-04-13T15:53:23Z) - CAusal and collaborative proxy-tasKs lEarning for Semi-Supervised Domain
Adaptation [20.589323508870592]
半教師付きドメイン適応(SSDA)は、ソースドメインデータとラベル付きターゲットサンプルを効果的に活用することにより、学習者を新しいドメインに適応させる。
提案手法は,SSDAデータセットの有効性と汎用性の観点から,SOTA法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-30T16:48:28Z) - Federated Semi-Supervised Domain Adaptation via Knowledge Transfer [6.7543356061346485]
本稿では,複数の分散および機密データセットに対して半教師付きドメイン適応(SSDA)を実現するための革新的なアプローチを提案する。
Federated Semi-Supervised Domain Adaptation (FSSDA)は、戦略的に設計された知識蒸留技術に基づいて、SSDAとフェデレートラーニングを統合している。
FSSDA設計の有効性と効率を実証するために大規模な実験を行った。
論文 参考訳(メタデータ) (2022-07-21T19:36:10Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Learning Invariant Representation with Consistency and Diversity for
Semi-supervised Source Hypothesis Transfer [46.68586555288172]
本稿では,SSHT(Semi-supervised Source hypothesis Transfer)という新たなタスクを提案する。
本研究では、ランダムに拡張された2つの未ラベルデータ間の予測整合性を容易にし、SSHTの簡易かつ効果的なフレームワークである一貫性と多様性の学習(CDL)を提案する。
実験の結果,本手法は,DomainNet,Office-Home,Office-31データセット上で,既存のSSDA手法や教師なしモデル適応手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-07T04:14:24Z) - Adapting Off-the-Shelf Source Segmenter for Target Medical Image
Segmentation [12.703234995718372]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインから学習した知識をラベルなしおよび見えないターゲットドメインに転送することを目的としている。
データストレージやプライバシの問題のため、適応段階でのソースドメインデータへのアクセスは制限されることが多い。
我々は、ソースドメインで事前訓練されたオフザシェルフセグメントモデルをターゲットドメインに適用することを提案する。
論文 参考訳(メタデータ) (2021-06-23T16:16:55Z) - Source Data-absent Unsupervised Domain Adaptation through Hypothesis
Transfer and Labeling Transfer [137.36099660616975]
Unsupervised Adapt Adaptation (UDA) は、関連性のある異なるラベル付きソースドメインから新しいラベルなしターゲットドメインへの知識の転送を目標としている。
既存のudaメソッドの多くはソースデータへのアクセスを必要としており、プライバシ上の懸念からデータが機密で共有できない場合は適用できない。
本稿では、ソースデータにアクセスする代わりに、トレーニング済みの分類モデルのみを用いて現実的な設定に取り組むことを目的とする。
論文 参考訳(メタデータ) (2020-12-14T07:28:50Z) - Deep Co-Training with Task Decomposition for Semi-Supervised Domain
Adaptation [80.55236691733506]
半教師付きドメイン適応(SSDA)は、ラベル付きソースドメインからトレーニングされたモデルを、異なるが関連するターゲットドメインに適応させることを目的としている。
本稿では,SSDAタスクを対象ドメイン内の半教師付き学習(SSL)タスクと,ドメイン間の非教師付きドメイン適応(UDA)タスクの2つのサブタスクに明示的に分解することを提案する。
論文 参考訳(メタデータ) (2020-07-24T17:57:54Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。