論文の概要: Expanding the Role of Diffusion Models for Robust Classifier Training
- arxiv url: http://arxiv.org/abs/2602.19931v1
- Date: Mon, 23 Feb 2026 15:06:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.871597
- Title: Expanding the Role of Diffusion Models for Robust Classifier Training
- Title(参考訳): ロバスト分類器教育における拡散モデルの役割の拡大
- Authors: Pin-Han Huang, Shang-Tse Chen, Hsuan-Tien Lin,
- Abstract要約: 拡散モデルは多様かつ部分的に堅牢な表現を提供することを示す。
我々の表現分析は、拡散モデルが敵の訓練に組み込まれることにより、より不整合な特徴が促進されることを示唆している。
CIFAR-10、CIFAR-100、ImageNetの実験はこれらの発見を検証した。
- 参考スコア(独自算出の注目度): 14.409018677904571
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Incorporating diffusion-generated synthetic data into adversarial training (AT) has been shown to substantially improve the training of robust image classifiers. In this work, we extend the role of diffusion models beyond merely generating synthetic data, examining whether their internal representations, which encode meaningful features of the data, can provide additional benefits for robust classifier training. Through systematic experiments, we show that diffusion models offer representations that are both diverse and partially robust, and that explicitly incorporating diffusion representations as an auxiliary learning signal during AT consistently improves robustness across settings. Furthermore, our representation analysis indicates that incorporating diffusion models into AT encourages more disentangled features, while diffusion representations and diffusion-generated synthetic data play complementary roles in shaping representations. Experiments on CIFAR-10, CIFAR-100, and ImageNet validate these findings, demonstrating the effectiveness of jointly leveraging diffusion representations and synthetic data within AT.
- Abstract(参考訳): 拡散生成合成データを逆行訓練(AT)に組み込むことにより,ロバスト画像分類器のトレーニングを大幅に改善することが示されている。
本研究では,単に合成データを生成すること以上の拡散モデルの役割を拡張し,データの意味的特徴を符号化した内部表現が,ロバストな分類器訓練にさらなるメリットをもたらすかどうかを検証する。
系統的な実験を通して,拡散モデルは多様かつ部分的に頑健な表現を提供し,AT中における補助的な学習信号として拡散表現を明示的に組み込むことにより,設定間の堅牢性は一貫して向上することを示した。
さらに, 拡散モデルをATに組み込むことにより, 拡散表現と拡散生成合成データが相補的な役割を担っているのに対し, 拡散モデルをATに組み込むことにより, より絡み合った特徴が促進されることが示唆された。
CIFAR-10, CIFAR-100, ImageNetによる実験により, AT内の拡散表現と合成データの併用の有効性が確認された。
関連論文リスト
- Disentangled representations via score-based variational autoencoders [21.955536401578616]
マルチスケール推論のためのスコアベースオートエンコーダ(SAMI)を提案する。
SAMIは、基礎となる拡散過程のスコアベースのガイダンスを通じて表現を学ぶ、原則化された目的を定式化する。
最小限の追加訓練で事前学習した拡散モデルから有用な表現を抽出することができる。
論文 参考訳(メタデータ) (2025-12-18T23:42:10Z) - Unleashing the Potential of the Semantic Latent Space in Diffusion Models for Image Dehazing [25.138589492384654]
DiffLI$2$Dという画像デハジングのための拡散遅延インスパイアネットワークを提案する。
まず、事前学習した拡散モデルのセマンティック潜時空間が、画像の内容とヘイズ特性を表現することができることを明らかにした。
異なる時間ステップでの拡散遅延表現を繊細に設計したデハジングネットワークに統合し、画像デハジングの指示を与える。
論文 参考訳(メタデータ) (2025-09-24T13:11:37Z) - FedDifRC: Unlocking the Potential of Text-to-Image Diffusion Models in Heterogeneous Federated Learning [12.366529890744822]
フェデレーション学習は、プライバシを保護しながら、参加者間で協調的にモデルをトレーニングすることを目的としている。
このパラダイムの大きな課題のひとつは、複数のクライアント間で偏ったデータ優先がモデルの一貫性とパフォーマンスを損なう、データ不均一性の問題である。
本稿では,拡散表現協調(FedDifRC)を用いた新しいフェデレーションパラダイムに強力な拡散モデルを導入する。
FedDifRCは、テキスト駆動拡散コントラストとノイズ駆動拡散正規化であり、豊富なクラス関連セマンティック情報と一貫した収束信号を提供することを目的としている。
論文 参考訳(メタデータ) (2025-07-09T01:57:57Z) - FaithDiff: Unleashing Diffusion Priors for Faithful Image Super-resolution [48.88184541515326]
本稿では,忠実な画像SRのための遅延拡散モデル(LDM)のパワーをフル活用するために,FithDiffというシンプルで効果的な手法を提案する。
高品質画像上で事前学習した拡散モデルを凍結する既存の拡散ベースSR法とは対照的に,有用な情報を特定し,忠実な構造を復元する前に拡散を解き放つことを提案する。
論文 参考訳(メタデータ) (2024-11-27T23:58:03Z) - How Diffusion Models Learn to Factorize and Compose [14.161975556325796]
拡散モデルは、トレーニングセットに表示されない可能性のある要素を組み合わせた、フォトリアリスティックな画像を生成することができる。
本研究では,拡散モデルが構成可能な特徴の意味的意味的・要因的表現を学習するかどうかを考察する。
論文 参考訳(メタデータ) (2024-08-23T17:59:03Z) - Theoretical Insights for Diffusion Guidance: A Case Study for Gaussian
Mixture Models [59.331993845831946]
拡散モデルは、所望の特性に向けてサンプル生成を操るために、スコア関数にタスク固有の情報を注入することの恩恵を受ける。
本稿では,ガウス混合モデルの文脈における拡散モデルに対する誘導の影響を理解するための最初の理論的研究を提供する。
論文 参考訳(メタデータ) (2024-03-03T23:15:48Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Self-Play Fine-Tuning of Diffusion Models for Text-to-Image Generation [59.184980778643464]
ファインチューニング拡散モデル : 生成人工知能(GenAI)の最前線
本稿では,拡散モデル(SPIN-Diffusion)のための自己演奏ファインチューニングという革新的な手法を紹介する。
提案手法は従来の教師付き微調整とRL戦略の代替として,モデル性能とアライメントの両方を大幅に改善する。
論文 参考訳(メタデータ) (2024-02-15T18:59:18Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。