論文の概要: Test-time Adaptation of Discriminative Models via Diffusion Generative
Feedback
- arxiv url: http://arxiv.org/abs/2311.16102v1
- Date: Mon, 27 Nov 2023 18:59:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 13:40:35.836339
- Title: Test-time Adaptation of Discriminative Models via Diffusion Generative
Feedback
- Title(参考訳): 拡散生成フィードバックによる識別モデルのテスト時間適応
- Authors: Mihir Prabhudesai and Tsung-Wei Ke and Alexander C. Li and Deepak
Pathak and Katerina Fragkiadaki
- Abstract要約: 生成モデルは、識別モデルのための優れたテストタイムアダプタになり得る。
提案手法であるDiffusion-TTAは,事前学習した判別モデルを,テストセットの各未学習例に適応させる。
拡散-TTAは,様々な大規模事前学習型判別モデルの精度を著しく向上させることを示した。
- 参考スコア(独自算出の注目度): 97.0874638345205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advancements in generative modeling, particularly the advent of diffusion
models, have sparked a fundamental question: how can these models be
effectively used for discriminative tasks? In this work, we find that
generative models can be great test-time adapters for discriminative models.
Our method, Diffusion-TTA, adapts pre-trained discriminative models such as
image classifiers, segmenters and depth predictors, to each unlabelled example
in the test set using generative feedback from a diffusion model. We achieve
this by modulating the conditioning of the diffusion model using the output of
the discriminative model. We then maximize the image likelihood objective by
backpropagating the gradients to discriminative model's parameters. We show
Diffusion-TTA significantly enhances the accuracy of various large-scale
pre-trained discriminative models, such as, ImageNet classifiers, CLIP models,
image pixel labellers and image depth predictors. Diffusion-TTA outperforms
existing test-time adaptation methods, including TTT-MAE and TENT, and
particularly shines in online adaptation setups, where the discriminative model
is continually adapted to each example in the test set. We provide access to
code, results, and visualizations on our website:
https://diffusion-tta.github.io/.
- Abstract(参考訳): 生成的モデリングの進歩、特に拡散モデルの出現は、基本的な問題を引き起こした:これらのモデルは、どのようにして差別的タスクに効果的に使用できるのか?
本研究では, 判別モデルに対して, 生成モデルが優れたテスト時アダプタとなりうることを示す。
Diffusion-TTAは,画像分類器,セグメンタ,深度予測器などの事前学習した識別モデルを,拡散モデルからの生成的フィードバックを用いて,テストセット内の各未学習例に適用する。
識別モデルの出力を用いて拡散モデルのコンディショニングを変調することでこれを実現する。
次に、勾配を識別モデルのパラメータにバックプロパゲーションすることにより、画像のゆらぎ目標を最大化する。
Diffusion-TTAは、画像ネット分類器、CLIPモデル、画像ピクセルラベルラー、画像深度予測器など、様々な大規模事前学習型識別モデルの精度を著しく向上させる。
Diffusion-TTA は TTT-MAE や TENT などの既存のテスト時間適応手法よりも優れており、特にオンライン適応方式では差別モデルがテストセットの各例に継続的に適応している。
私たちのwebサイトでは、コード、結果、視覚化へのアクセスを提供しています。
関連論文リスト
- Model Integrity when Unlearning with T2I Diffusion Models [11.321968363411145]
「忘れ分布からのサンプルを特徴とする特定種類の画像の生成を減らすために、近似機械学習アルゴリズムを提案する。」
次に、既存のベースラインと比較してモデルの整合性を保つ上で優れた効果を示す未学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-04T13:15:28Z) - Diffusion Model Driven Test-Time Image Adaptation for Robust Skin Lesion Classification [24.08402880603475]
テストデータ上でのモデルの精度を高めるためのテスト時間画像適応手法を提案する。
拡散モデルを用いて、対象の試験画像をソース領域に投影して修正する。
私たちの手法は、さまざまな汚職、アーキテクチャ、データレシエーションにおいて、堅牢性をより堅牢にします。
論文 参考訳(メタデータ) (2024-05-18T13:28:51Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Discriminator Guidance for Autoregressive Diffusion Models [12.139222986297264]
本稿では,自己回帰拡散モデルの設定において差別的ガイダンスを導入する。
判別器と事前学習した生成モデルとを個別のケースで併用する方法を導出する。
論文 参考訳(メタデータ) (2023-10-24T13:14:22Z) - Diffusion Models Beat GANs on Image Classification [37.70821298392606]
拡散モデルは、画像生成、復調、塗装、超解像、操作などの最先端の手法として注目されている。
本稿では,これらの埋め込みは識別情報を含むため,ノイズ予測タスクを超えて有用であり,分類にも活用できることを示す。
注意深い特徴選択とプーリングにより、拡散モデルは、分類タスクにおいて同等な生成的識別的手法より優れていることが判明した。
論文 参考訳(メタデータ) (2023-07-17T17:59:40Z) - Discffusion: Discriminative Diffusion Models as Few-shot Vision and Language Learners [88.07317175639226]
本稿では,事前学習したテキストと画像の拡散モデルを数ショットの識別学習者に変換する新しい手法,DSDを提案する。
本手法は, 安定拡散モデルにおいて, 視覚情報とテキスト情報の相互影響を捉えるために, クロスアテンションスコアを用いている。
論文 参考訳(メタデータ) (2023-05-18T05:41:36Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z) - Reduce, Reuse, Recycle: Compositional Generation with Energy-Based Diffusion Models and MCMC [102.64648158034568]
拡散モデルは、多くの領域において、生成モデリングの一般的なアプローチとなっている。
本稿では,新しい構成演算子の利用を可能にする拡散モデルのエネルギーベースパラメータ化を提案する。
これらのサンプルは、幅広い問題にまたがって構成生成の顕著な改善につながっている。
論文 参考訳(メタデータ) (2023-02-22T18:48:46Z) - A Survey on Generative Diffusion Model [75.93774014861978]
拡散モデルは、深層生成モデルの新たなクラスである。
時間を要する反復生成過程や高次元ユークリッド空間への閉じ込めなど、いくつかの制限がある。
本調査では,拡散モデルの向上を目的とした高度な手法を多数提示する。
論文 参考訳(メタデータ) (2022-09-06T16:56:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。