論文の概要: Target to Source: Guidance-Based Diffusion Model for Test-Time
Adaptation
- arxiv url: http://arxiv.org/abs/2312.05274v1
- Date: Fri, 8 Dec 2023 02:31:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 21:58:02.528540
- Title: Target to Source: Guidance-Based Diffusion Model for Test-Time
Adaptation
- Title(参考訳): target to source: テスト時間適応のためのガイダンスに基づく拡散モデル
- Authors: Kaiyu Song, Hanjiang Lai
- Abstract要約: データシフトを克服するために,新しいガイダンスベース拡散駆動適応法(GDDA)を提案する。
GDDAは最先端のベースラインよりも大幅にパフォーマンスが向上する。
- 参考スコア(独自算出の注目度): 8.695439655048634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most recent works of test-time adaptation (TTA) aim to alleviate domain shift
problems by re-training source classifiers in each domain. On the other hand,
the emergence of the diffusion model provides another solution to TTA, which
directly maps the test data from the target domain to the source domain based
on a diffusion model pre-trained in the source domain. The source classifier
does not need to be fine-tuned. However, 1) the semantic information loss from
test data to the source domain and 2) the model shift between the source
classifier and diffusion model would prevent the diffusion model from mapping
the test data back to the source domain correctly. In this paper, we propose a
novel guidance-based diffusion-driven adaptation (GDDA) to overcome the data
shift and let the diffusion model find a better way to go back to the source.
Concretely, we first propose detail and global guidance to better keep the
common semantics of the test and source data. The two guidance include a
contrastive loss and mean squared error to alleviate the information loss by
fully exploring the diffusion model and the test data. Meanwhile, we propose a
classifier-aware guidance to reduce the bias caused by the model shift, which
can incorporate the source classifier's information into the generation process
of the diffusion model. Extensive experiments on three image datasets with
three classifier backbones demonstrate that GDDA significantly performs better
than the state-of-the-art baselines. On CIFAR-10C, CIFAR-100C, and ImageNetC,
GDDA achieves 11.54\%, 19.05\%, and 11.63\% average accuracy improvements,
respectively. GDDA even achieves equal performance compared with methods of
re-training classifiers. The code is available in the supplementary material.
- Abstract(参考訳): テスト時間適応(TTA)の最近の研究は、各ドメインのソース分類器を再訓練することによって、ドメインシフトの問題を軽減することを目的としている。
一方、拡散モデルの出現は、ソースドメインで事前訓練された拡散モデルに基づいて、ターゲットドメインからソースドメインにテストデータを直接マッピングするTTAに対する別の解決策を提供する。
ソース分類器は微調整される必要はない。
しかし、
1)テストデータからソースドメインへの意味的情報損失と
2) ソース分類器と拡散モデルとのモデルシフトは、拡散モデルがテストデータをソースドメインに正しくマッピングすることを妨げます。
本稿では、データシフトを克服し、拡散モデルによりソースに戻すより良い方法を見つけるための、新しいガイダンスベースの拡散駆動適応(GDDA)を提案する。
具体的には、まず、テストデータとソースデータの共通セマンティクスをよりよく維持するための詳細とグローバルガイダンスを提案する。
2つのガイダンスには、拡散モデルとテストデータを完全に探索することで情報損失を軽減するための対比的損失と平均二乗誤差が含まれる。
一方,モデルシフトによるバイアスを低減するための分類器対応ガイダンスを提案し,拡散モデルの生成プロセスにソース分類器の情報を組み込むことができる。
3つの分類器のバックボーンを持つ3つの画像データセットの大規模な実験により、GDDAは最先端のベースラインよりも優れた性能を示した。
CIFAR-10C、CIFAR-100C、ImageNetCでは、GDDAはそれぞれ11.54\%、19.05\%、11.63\%の平均精度の改善を達成した。
GDDAは、分類器の再訓練方法と同等の性能を達成している。
コードは補足資料で入手できる。
関連論文リスト
- Everything to the Synthetic: Diffusion-driven Test-time Adaptation via Synthetic-Domain Alignment [76.44483062571611]
テスト時間適応(TTA)は、未知のシフト対象ドメインでテストする場合、ソースドメイン事前訓練モデルの性能を向上させることを目的としている。
従来のTTA手法は、主にターゲットデータストリームに基づいてモデルの重みを適応し、ターゲットデータの量と順序に敏感なモデル性能を実現する。
最近の拡散駆動型TTA法は非条件拡散モデルを用いて強い性能を示した。
論文 参考訳(メタデータ) (2024-06-06T17:39:09Z) - Source-Free Domain Adaptation with Diffusion-Guided Source Data Generation [6.087274577167399]
本稿では、ソースフリードメイン適応(DM-SFDA)のための拡散モデルの一般化可能性を活用する新しいアプローチを提案する。
提案するDMSFDA法では,事前学習したテキスト・画像拡散モデルを微調整し,ソース・ドメイン・イメージを生成する。
私たちは、Office-31、Office-Home、VisDAなど、さまざまなデータセットにわたる包括的な実験を通じて、このアプローチを検証する。
論文 参考訳(メタデータ) (2024-02-07T14:56:13Z) - Turn Down the Noise: Leveraging Diffusion Models for Test-time
Adaptation via Pseudo-label Ensembling [2.5437028043490084]
テスト時間適応の目標は、ソースデータに頼ることなく、継続的に変化するターゲットドメインにソース予測モデルを適用することである。
本稿では,事前学習した拡散モデルを用いて,対象領域の画像がソース領域に近づくように投影する手法を提案する。
論文 参考訳(メタデータ) (2023-11-29T20:35:32Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Back to the Source: Diffusion-Driven Test-Time Adaptation [77.4229736436935]
テスト時間適応はテスト入力を利用し、シフトしたターゲットデータ上でテストした場合、ソースデータに基づいてトレーニングされたモデルの精度を向上させる。
代わりに、生成拡散モデルを用いて、すべてのテスト入力をソース領域に向けて投影することで、ターゲットデータを更新する。
論文 参考訳(メタデータ) (2022-07-07T17:14:10Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。