論文の概要: Curriculum Guided Domain Adaptation in the Dark
- arxiv url: http://arxiv.org/abs/2308.00956v1
- Date: Wed, 2 Aug 2023 05:47:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-03 13:49:26.839390
- Title: Curriculum Guided Domain Adaptation in the Dark
- Title(参考訳): 暗黒環境におけるカリキュラム指導型ドメイン適応
- Authors: Chowdhury Sadman Jahan and Andreas Savakis
- Abstract要約: ダークのドメイン適応は、ソースデータやソースモデルパラメータにアクセスせずに、ブラックボックスのソーストレーニングされたモデルをラベルなしのターゲットドメインに適応することを目的としている。
本稿では,対象モデルを段階的に学習するためのカリキュラム指導型適応手法であるCABBについて述べる。
本手法は,二分岐ネットワークの協調学習を利用して,確認バイアスによる誤差の蓄積を抑制する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Addressing the rising concerns of privacy and security, domain adaptation in
the dark aims to adapt a black-box source trained model to an unlabeled target
domain without access to any source data or source model parameters. The need
for domain adaptation of black-box predictors becomes even more pronounced to
protect intellectual property as deep learning based solutions are becoming
increasingly commercialized. Current methods distill noisy predictions on the
target data obtained from the source model to the target model, and/or separate
clean/noisy target samples before adapting using traditional noisy label
learning algorithms. However, these methods do not utilize the easy-to-hard
learning nature of the clean/noisy data splits. Also, none of the existing
methods are end-to-end, and require a separate fine-tuning stage and an initial
warmup stage. In this work, we present Curriculum Adaptation for Black-Box
(CABB) which provides a curriculum guided adaptation approach to gradually
train the target model, first on target data with high confidence (clean)
labels, and later on target data with noisy labels. CABB utilizes
Jensen-Shannon divergence as a better criterion for clean-noisy sample
separation, compared to the traditional criterion of cross entropy loss. Our
method utilizes co-training of a dual-branch network to suppress error
accumulation resulting from confirmation bias. The proposed approach is
end-to-end trainable and does not require any extra finetuning stage, unlike
existing methods. Empirical results on standard domain adaptation datasets show
that CABB outperforms existing state-of-the-art black-box DA models and is
comparable to white-box domain adaptation models.
- Abstract(参考訳): プライバシーとセキュリティの懸念の高まりに対処するため、暗黒におけるドメイン適応は、ソースデータやソースモデルパラメータにアクセスせずに、ブラックボックスソースのトレーニング済みモデルをラベルなしのターゲットドメインに適応することを目的としている。
ブラックボックス予測器のドメイン適応の必要性は、ディープラーニングベースのソリューションがますます商業化されつつあるため、知的財産を保護するためにさらに顕著になる。
現在の方法は、従来のノイズラベル学習アルゴリズムを適用する前に、ソースモデルからターゲットモデルに得られたターゲットデータにノイズ予測を蒸留し、クリーン/ノイズのターゲットサンプルを分離する。
しかし、これらの方法はクリーン/ノイジーデータ分割の易解な学習の性質を生かさない。
また、既存のメソッドはいずれもエンドツーエンドではなく、個別の微調整ステージと初期ウォームアップステージを必要とする。
本研究では,まず,高い信頼度(クリーン)ラベルを持つ対象データ,次いでノイズの多いラベルを持つ対象データに基づいて,対象モデルを段階的にトレーニングするためのカリキュラム的適応アプローチを提供する,ブラックボックス用カリキュラム適応(CABB)を提案する。
CABBは、従来のクロスエントロピー損失の基準と比較して、クリーンノイズサンプル分離のためのより良い基準としてジェンセン・シャノン分散を用いる。
本手法は,デュアルブランチネットワークの協調学習を利用して,確認バイアスによる誤差蓄積を抑制する。
提案手法はエンドツーエンドのトレーニングが可能であり、既存の手法とは異なり、追加の微調整段階を必要としない。
標準領域適応データセットの実証結果は、CABBが既存の最先端のブラックボックスDAモデルより優れており、ホワイトボックスドメイン適応モデルに匹敵することを示している。
関連論文リスト
- Incremental Pseudo-Labeling for Black-Box Unsupervised Domain Adaptation [14.596659424489223]
対象モデルの一般化能力を向上させるために,高信頼度擬似ラベルを漸進的に選択する手法を提案する。
実験により,提案手法は3つのベンチマークデータセット上で,最先端のブラックボックスによる教師なしドメイン適応性能を実現することを示した。
論文 参考訳(メタデータ) (2024-05-26T05:41:42Z) - Cross-Domain Transfer Learning with CoRTe: Consistent and Reliable
Transfer from Black-Box to Lightweight Segmentation Model [25.3403116022412]
CoRTeは、ブラックボックスソースモデルから信頼できる知識を抽出する擬似ラベリング関数である。
我々は,2つの合成から現実の環境でCoRTeをベンチマークし,ブラックボックスモデルを用いて目標データ分布の軽量モデルにおける知識を伝達する際,顕著な結果を示した。
論文 参考訳(メタデータ) (2024-02-20T16:35:14Z) - Cal-SFDA: Source-Free Domain-adaptive Semantic Segmentation with
Differentiable Expected Calibration Error [50.86671887712424]
ドメイン適応型セマンティックセグメンテーションの流行は、ソースドメインデータの漏洩に関する懸念を引き起こしている。
ソースデータの要求を回避するため、ソースフリーなドメイン適応が実現可能なソリューションとして登場した。
校正誘導型ソースフリーなドメイン適応型セマンティックセマンティックセマンティクスフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-06T03:28:34Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - A Curriculum-style Self-training Approach for Source-Free Semantic Segmentation [91.13472029666312]
ソースフリーなドメイン適応型セマンティックセマンティックセグメンテーションのためのカリキュラムスタイルの自己学習手法を提案する。
提案手法は, ソースフリーなセマンティックセグメンテーションタスクにおいて, 合成-実-実-実-実-実-実-非実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実
論文 参考訳(メタデータ) (2021-06-22T10:21:39Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。