論文の概要: GradCheck: Analyzing classifier guidance gradients for conditional diffusion sampling
- arxiv url: http://arxiv.org/abs/2406.17399v1
- Date: Tue, 25 Jun 2024 09:23:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 15:01:42.288384
- Title: GradCheck: Analyzing classifier guidance gradients for conditional diffusion sampling
- Title(参考訳): GradCheck: 条件拡散サンプリングのための分類器ガイダンス勾配の解析
- Authors: Philipp Vaeth, Alexander M. Fruehwald, Benjamin Paassen, Magda Gregorova,
- Abstract要約: 分類器からの勾配、特にノイズの多い画像で訓練されていないものは、しばしば不安定である。
本研究では、ロバストな分類器と非ロバストな分類器を比較した勾配解析を行い、複数の勾配安定化手法について検討した。
- 参考スコア(独自算出の注目度): 42.50219822975012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To sample from an unconditionally trained Denoising Diffusion Probabilistic Model (DDPM), classifier guidance adds conditional information during sampling, but the gradients from classifiers, especially those not trained on noisy images, are often unstable. This study conducts a gradient analysis comparing robust and non-robust classifiers, as well as multiple gradient stabilization techniques. Experimental results demonstrate that these techniques significantly improve the quality of class-conditional samples for non-robust classifiers by providing more stable and informative classifier guidance gradients. The findings highlight the importance of gradient stability in enhancing the performance of classifier guidance, especially on non-robust classifiers.
- Abstract(参考訳): 非条件で訓練されたDenoising Diffusion Probabilistic Model (DDPM) からサンプリングするために、分類器誘導はサンプリング中に条件情報を追加するが、分類器からの勾配、特にノイズの多い画像で訓練されていないものはしばしば不安定である。
本研究では、ロバストな分類器と非ロバストな分類器を比較した勾配解析を行い、複数の勾配安定化手法について検討した。
実験により,これらの手法はより安定かつ情報的分類器誘導勾配を提供することにより,非ロバスト分類器のクラス条件サンプルの品質を著しく向上させることが示された。
この結果は,特に非ロバスト分類器における分類器誘導性能の向上における勾配安定性の重要性を浮き彫りにした。
関連論文リスト
- Stable Neighbor Denoising for Source-free Domain Adaptive Segmentation [91.83820250747935]
擬似ラベルノイズは主に不安定なサンプルに含まれており、ほとんどのピクセルの予測は自己学習中に大きく変化する。
我々は, 安定・不安定な試料を効果的に発見する, SND(Stable Neighbor Denoising)アプローチを導入する。
SNDは、様々なSFUDAセマンティックセグメンテーション設定における最先端メソッドよりも一貫して優れている。
論文 参考訳(メタデータ) (2024-06-10T21:44:52Z) - Self-Rectifying Diffusion Sampling with Perturbed-Attention Guidance [28.354284737867136]
Perturbed-Attention Guidance (PAG)は、無条件と条件の両方で拡散サンプルの品質を向上させる。
ADMとStable Diffusionの両方において、PAGは驚くほど、条件付きおよび条件なしのシナリオにおけるサンプル品質を改善します。
論文 参考訳(メタデータ) (2024-03-26T04:49:11Z) - Label-Noise Robust Diffusion Models [18.82847557713331]
条件拡散モデルは、様々な生成タスクにおいて顕著な性能を示した。
訓練には、条件付き入力でしばしばノイズを含む大規模なデータセット、すなわちノイズラベルが必要である。
本稿では,雑音ラベル付き条件付き拡散モデルの学習のための遷移対応重み付きDenoising Score Matchingを提案する。
論文 参考訳(メタデータ) (2024-02-27T14:00:34Z) - Bridging the Gap: Addressing Discrepancies in Diffusion Model Training
for Classifier-Free Guidance [1.6804613362826175]
拡散モデルは、生成モデルにおいて重要な進歩として現れている。
本稿では,従来の訓練方法と所望の条件付きサンプリング行動との相違点を明らかにすることを目的とする。
トレーニング目標とサンプリング行動との整合性を向上する改良された損失関数を導入する。
論文 参考訳(メタデータ) (2023-11-02T02:03:12Z) - Benchmarking common uncertainty estimation methods with
histopathological images under domain shift and label noise [62.997667081978825]
リスクの高い環境では、深層学習モデルは不確実性を判断し、誤分類の可能性がかなり高い場合に入力を拒否しなければなりません。
我々は,全スライド画像の分類において,最もよく使われている不確実性と頑健さの厳密な評価を行う。
我々は一般的に,手法のアンサンブルが,ドメインシフトやラベルノイズに対するロバスト性の向上とともに,より良い不確実性評価につながることを観察する。
論文 参考訳(メタデータ) (2023-01-03T11:34:36Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Enhancing Diffusion-Based Image Synthesis with Robust Classifier
Guidance [17.929524924008962]
クラス条件生成のために,時間依存型分類器からの勾配による拡散過程の導出を提案した。
このアイデアは理論上は健全だが、ディープラーニングベースの分類器は、勾配に基づく敵対攻撃に悪名高い。
本研究では,時間依存型頑健な分類器を定義・訓練し,生成拡散モデルのガイダンスとして利用する。
論文 参考訳(メタデータ) (2022-08-18T06:51:23Z) - Centrality and Consistency: Two-Stage Clean Samples Identification for
Learning with Instance-Dependent Noisy Labels [87.48541631675889]
本稿では,2段階のクリーンサンプル識別手法を提案する。
まず,クリーンサンプルの早期同定にクラスレベルの特徴クラスタリング手法を用いる。
次に, 基底真理クラス境界に近い残余のクリーンサンプルについて, 一貫性に基づく新しい分類法を提案する。
論文 参考訳(メタデータ) (2022-07-29T04:54:57Z) - Classifier-Free Diffusion Guidance [17.355749359987648]
誘導法は条件付き拡散モデルにおけるモードカバレッジとサンプル忠実度をトレードオフする手法として最近導入された。
このような分類器を使わずに、純粋な生成モデルによってガイダンスを実際に実行できることが示される。
結果の条件と非条件のスコアの見積もりを組み合わせることで、サンプルの品質と多様性のトレードオフを達成します。
論文 参考訳(メタデータ) (2022-07-26T01:42:07Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。