論文の概要: Training Diffusion Classifiers with Denoising Assistance
- arxiv url: http://arxiv.org/abs/2306.09192v1
- Date: Thu, 15 Jun 2023 15:19:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 14:16:55.055277
- Title: Training Diffusion Classifiers with Denoising Assistance
- Title(参考訳): 異化支援による拡散分類の訓練
- Authors: Chandramouli Sastry, Sri Harsha Dumpala, Sageev Oore
- Abstract要約: 本稿では,雑音と雑音の両例を用いて学習した聴覚支援型(DA)分類器を提案する。
Cifar10 と Imagenet を用いた実験の結果,DA-classifier はノイズの多い分類器よりも改善されていることがわかった。
- 参考スコア(独自算出の注目度): 9.803087286110182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Score-matching and diffusion models have emerged as state-of-the-art
generative models for both conditional and unconditional generation.
Classifier-guided diffusion models are created by training a classifier on
samples obtained from the forward-diffusion process (i.e., from data to noise).
In this paper, we propose denoising-assisted (DA) classifiers wherein the
diffusion classifier is trained using both noisy and denoised examples as
simultaneous inputs to the model. We differentiate between denoising-assisted
(DA) classifiers and noisy classifiers, which are diffusion classifiers that
are only trained on noisy examples. Our experiments on Cifar10 and Imagenet
show that DA-classifiers improve over noisy classifiers both quantitatively in
terms of generalization to test data and qualitatively in terms of
perceptually-aligned classifier-gradients and generative modeling metrics.
Finally, we describe a semi-supervised framework for training diffusion
classifiers and our experiments, that also include positive-unlabeled settings,
demonstrate improved generalization of DA-classifiers over noisy classifiers.
- Abstract(参考訳): スコアマッチングと拡散モデルは条件付きおよび無条件生成の最先端生成モデルとして登場してきた。
分類器誘導拡散モデルは、前方拡散過程(すなわちデータからノイズまで)から得られたサンプルの分類器を訓練することによって作成される。
本稿では,モデルへの同時入力として,雑音と雑音の両方を用いて拡散分類器を訓練するDA分類器を提案する。
我々は,雑音の例でのみ訓練される拡散分類器である雑音分類器と雑音分類器を区別する。
Cifar10 と Imagenet を用いた実験により,DA-classifier はデータに対する一般化の観点からも,知覚的整合型分類器の勾配や生成的モデリングの指標に関しても,定量的に改善されていることがわかった。
最後に,拡散分類器を訓練するための半教師付きフレームワークと,騒音分類器上でのda分類器の一般化を実証する実験について述べる。
関連論文リスト
- Diffusion-TTA: Test-time Adaptation of Discriminative Models via
Generative Feedback [97.0874638345205]
生成モデルは、識別モデルのための優れたテストタイムアダプタになり得る。
提案手法であるDiffusion-TTAは,事前学習した判別モデルを,テストセットの各未学習例に適応させる。
拡散-TTAは,様々な大規模事前学習型判別モデルの精度を著しく向上させることを示した。
論文 参考訳(メタデータ) (2023-11-27T18:59:53Z) - Denoising Diffusion Autoencoders are Unified Self-supervised Learners [58.194184241363175]
本稿では,拡散モデルにおけるネットワーク,すなわち拡散オートエンコーダ(DDAE)が,自己教師型学習者の統合であることを示す。
DDAEはすでに、補助エンコーダを使わずに、中間層内で線形分離可能な表現を強く学習している。
CIFAR-10 と Tiny-ImageNet の線形評価精度は95.9% と 50.0% である。
論文 参考訳(メタデータ) (2023-03-17T04:20:47Z) - Learning Data Representations with Joint Diffusion Models [20.25147743706431]
データの合成と分類を可能にする統合機械学習モデルは、多くの場合、それらのタスク間の不均一なパフォーマンスを提供するか、トレーニングが不安定である。
それらの目的間のパラメータ化を共用した安定な連立エンドツーエンドトレーニングを可能にする分類器を用いて,バニラ拡散モデルを拡張した。
結果として得られた共同拡散モデルは、評価された全てのベンチマークにおいて、分類と生成品質の両方の観点から、最近の最先端のハイブリッド手法よりも優れている。
論文 参考訳(メタデータ) (2023-01-31T13:29:19Z) - Score-based Continuous-time Discrete Diffusion Models [102.65769839899315]
連続時間マルコフ連鎖を介して逆過程が認知されるマルコフジャンププロセスを導入することにより、拡散モデルを離散変数に拡張する。
条件境界分布の単純なマッチングにより、偏りのない推定器が得られることを示す。
提案手法の有効性を,合成および実世界の音楽と画像のベンチマークで示す。
論文 参考訳(メタデータ) (2022-11-30T05:33:29Z) - From Denoising Diffusions to Denoising Markov Models [38.33676858989955]
デノイング拡散は、顕著な経験的性能を示す最先端の生成モデルである。
本稿では、この手法を広い範囲に一般化し、スコアマッチングのオリジナル拡張につながる統一フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-07T14:34:27Z) - Centrality and Consistency: Two-Stage Clean Samples Identification for
Learning with Instance-Dependent Noisy Labels [87.48541631675889]
本稿では,2段階のクリーンサンプル識別手法を提案する。
まず,クリーンサンプルの早期同定にクラスレベルの特徴クラスタリング手法を用いる。
次に, 基底真理クラス境界に近い残余のクリーンサンプルについて, 一貫性に基づく新しい分類法を提案する。
論文 参考訳(メタデータ) (2022-07-29T04:54:57Z) - Classifier-Free Diffusion Guidance [17.355749359987648]
誘導法は条件付き拡散モデルにおけるモードカバレッジとサンプル忠実度をトレードオフする手法として最近導入された。
このような分類器を使わずに、純粋な生成モデルによってガイダンスを実際に実行できることが示される。
結果の条件と非条件のスコアの見積もりを組み合わせることで、サンプルの品質と多様性のトレードオフを達成します。
論文 参考訳(メタデータ) (2022-07-26T01:42:07Z) - UQGAN: A Unified Model for Uncertainty Quantification of Deep
Classifiers trained via Conditional GANs [9.496524884855559]
本稿では,GAN(Generative Adversarial Network)に基づく画像分類におけるディープニューラルネットワークの不確実性の定量化手法を提案する。
GAN の生成した OoD の例で分散データの全体を保護する代わりに,条件付き GAN によって生成されたクラスを別々に保護する。
特に、最先端のGAN学習に基づく分類器のOoD検出とFP検出性能を改善した。
論文 参考訳(メタデータ) (2022-01-31T14:42:35Z) - Visualizing Classifier Adjacency Relations: A Case Study in Speaker
Verification and Voice Anti-Spoofing [72.4445825335561]
任意のバイナリ分類器によって生成される検出スコアから2次元表現を導出する簡単な方法を提案する。
ランク相関に基づいて,任意のスコアを用いた分類器の視覚的比較を容易にする。
提案手法は完全に汎用的であり,任意の検出タスクに適用可能だが,自動話者検証と音声アンチスプーフィングシステムによるスコアを用いた手法を実証する。
論文 参考訳(メタデータ) (2021-06-11T13:03:33Z) - Open-Set Recognition with Gaussian Mixture Variational Autoencoders [91.3247063132127]
推論において、オープンセット分類は、サンプルをトレーニングから既知のクラスに分類するか、未知のクラスとして拒絶するかのどちらかである。
我々は,協調的に再構築を学習し,潜在空間におけるクラスベースのクラスタリングを行うよう,我々のモデルを訓練する。
我々のモデルは、より正確で堅牢なオープンセット分類結果を実現し、平均的なF1改善率は29.5%である。
論文 参考訳(メタデータ) (2020-06-03T01:15:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。