論文の概要: Everything to the Synthetic: Diffusion-driven Test-time Adaptation via Synthetic-Domain Alignment
- arxiv url: http://arxiv.org/abs/2406.04295v2
- Date: Sun, 15 Dec 2024 13:53:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:50:36.457971
- Title: Everything to the Synthetic: Diffusion-driven Test-time Adaptation via Synthetic-Domain Alignment
- Title(参考訳): 合成へのすべて: 拡散駆動型テスト時間適応の合成-ドメインアライメント
- Authors: Jiayi Guo, Junhao Zhao, Chaoqun Du, Yulin Wang, Chunjiang Ge, Zanlin Ni, Shiji Song, Humphrey Shi, Gao Huang,
- Abstract要約: テスト時間適応(TTA)は、これまで見つからなかった、シフトしたターゲットドメイン上でのソースドメイン事前訓練モデルの性能を改善することを目的としている。
従来のTTA手法は、主にターゲットデータストリームに基づいてモデルの重みを適応し、ターゲットデータの量と順序に敏感なモデル性能を実現する。
最近提案された拡散駆動型TTA法は、モデル入力を重みに代えて適応することでこれを緩和し、ソースドメイン上で訓練された無条件拡散モデルにより、ターゲットドメインデータをソースドメインに近似する合成ドメインに変換する。
- 参考スコア(独自算出の注目度): 81.78901060731269
- License:
- Abstract: Test-time adaptation (TTA) aims to improve the performance of source-domain pre-trained models on previously unseen, shifted target domains. Traditional TTA methods primarily adapt model weights based on target data streams, making model performance sensitive to the amount and order of target data. The recently proposed diffusion-driven TTA methods mitigate this by adapting model inputs instead of weights, where an unconditional diffusion model, trained on the source domain, transforms target-domain data into a synthetic domain that is expected to approximate the source domain. However, in this paper, we reveal that although the synthetic data in diffusion-driven TTA seems indistinguishable from the source data, it is unaligned with, or even markedly different from the latter for deep networks. To address this issue, we propose a \textbf{S}ynthetic-\textbf{D}omain \textbf{A}lignment (SDA) framework. Our key insight is to fine-tune the source model with synthetic data to ensure better alignment. Specifically, we first employ a conditional diffusion model to generate labeled samples, creating a synthetic dataset. Subsequently, we use the aforementioned unconditional diffusion model to add noise to and denoise each sample before fine-tuning. This Mix of Diffusion (MoD) process mitigates the potential domain misalignment between the conditional and unconditional models. Extensive experiments across classifiers, segmenters, and multimodal large language models (MLLMs, \eg, LLaVA) demonstrate that SDA achieves superior domain alignment and consistently outperforms existing diffusion-driven TTA methods. Our code is available at https://github.com/SHI-Labs/Diffusion-Driven-Test-Time-Adaptation-via-Synthetic-Domain-Alignment.
- Abstract(参考訳): テスト時間適応(TTA)は、これまで見つからなかった、シフトしたターゲットドメイン上でのソースドメイン事前訓練モデルの性能を改善することを目的としている。
従来のTTA手法は、主にターゲットデータストリームに基づいてモデルの重みを適応し、ターゲットデータの量と順序に敏感なモデル性能を実現する。
最近提案された拡散駆動型TTA法は、モデル入力を重みに代えて適応することでこれを緩和し、ソースドメイン上で訓練された無条件拡散モデルにより、ターゲットドメインデータをソースドメインに近似する合成ドメインに変換する。
しかし,本論文では,拡散駆動型TTAの合成データがソースデータと区別できないように思われるが,深層ネットワークではそれとは一致していないか,あるいは顕著に異なることが明らかとなった。
この問題に対処するため,本稿では,SDA フレームワークとして \textbf{S}ynthetic-\textbf{D}omain \textbf{A}lignment (SDA) を提案する。
私たちの重要な洞察は、ソースモデルを合成データで微調整して、アライメントを改善することです。
具体的には、まず条件付き拡散モデルを用いてラベル付きサンプルを生成し、合成データセットを作成する。
その後、前述の非条件拡散モデルを用いて、微調整前に各サンプルにノイズを付加し、ノイズを消音する。
この拡散の混合(MoD)プロセスは、条件付きモデルと非条件付きモデルの間の潜在的な領域のミスアライメントを緩和する。
分類器,セグメンタ,マルチモーダル大言語モデル(MLLM, \eg, LLaVA)にまたがる広範囲な実験により,SDAが優れたドメインアライメントを実現し,既存の拡散駆動型TTA法より一貫して優れていることを示す。
私たちのコードはhttps://github.com/SHI-Labs/Diffusion-Driven-Test-Adaptation-via-Synthetic-Domain-Alignmentで利用可能です。
関連論文リスト
- Derivative-Free Guidance in Continuous and Discrete Diffusion Models with Soft Value-Based Decoding [84.3224556294803]
拡散モデルは、画像、分子、DNA、RNA、タンパク質配列の自然なデザイン空間を捉えるのに優れている。
これらの設計空間の自然性を保ちながら、下流の報酬関数を最適化することを目指している。
提案アルゴリズムは,中間雑音状態が将来高い報酬をもたらすことの先駆けとして,ソフトバリュー関数を統合する。
論文 参考訳(メタデータ) (2024-08-15T16:47:59Z) - Distribution Alignment for Fully Test-Time Adaptation with Dynamic Online Data Streams [19.921480334048756]
TTA(Test-Time Adaptation)は、テストデータストリームの適応と推論を可能にする。
本稿では,TTAにおける新しい配電アライメント損失を提案する。
我々は、非i.d.シナリオにおける既存の手法を超越し、理想的なi.d.仮定の下で競争性能を維持する。
論文 参考訳(メタデータ) (2024-07-16T19:33:23Z) - Target to Source: Guidance-Based Diffusion Model for Test-Time
Adaptation [8.695439655048634]
データシフトを克服するために,新しいガイダンスベース拡散駆動適応法(GDDA)を提案する。
GDDAは最先端のベースラインよりも大幅にパフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-12-08T02:31:36Z) - Transcending Domains through Text-to-Image Diffusion: A Source-Free
Approach to Domain Adaptation [6.649910168731417]
ドメイン適応(ドメイン適応、Domain Adaptation、DA)は、アノテートデータが不十分なターゲットドメインにおけるモデルの性能を高める方法である。
本研究では,対象領域のサンプルに基づいてトレーニングしたテキスト・ツー・イメージ拡散モデルを用いて,ソースデータを生成する新しいSFDAフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-02T23:38:17Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Back to the Source: Diffusion-Driven Test-Time Adaptation [77.4229736436935]
テスト時間適応はテスト入力を利用し、シフトしたターゲットデータ上でテストした場合、ソースデータに基づいてトレーニングされたモデルの精度を向上させる。
代わりに、生成拡散モデルを用いて、すべてのテスト入力をソース領域に向けて投影することで、ターゲットデータを更新する。
論文 参考訳(メタデータ) (2022-07-07T17:14:10Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Domain Adaptation without Source Data [20.64875162351594]
センシティブな情報を含む可能性のあるソースデータへのアクセスを避けるために、ソースデータフリードメイン適応(SFDA)を導入します。
私たちのキーとなるアイデアは、ソースドメインから事前トレーニングされたモデルを活用し、ターゲットモデルを段階的に自己学習的に更新することです。
我々のPrDAは、ベンチマークデータセットにおける従来のドメイン適応手法よりも優れています。
論文 参考訳(メタデータ) (2020-07-03T07:21:30Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。