論文の概要: Your Classifier Can Do More: Towards Bridging the Gaps in Classification, Robustness, and Generation
- arxiv url: http://arxiv.org/abs/2505.19459v1
- Date: Mon, 26 May 2025 03:26:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.139632
- Title: Your Classifier Can Do More: Towards Bridging the Gaps in Classification, Robustness, and Generation
- Title(参考訳): 分類器がもっとできる: 分類、ロバスト性、生成のギャップを埋める
- Authors: Kaichao Jiang, He Wang, Xiaoshuai Hao, Xiulong Yang, Ajian Liu, Qi Chu, Yunfeng Diao,
- Abstract要約: 本研究では, クリーン, 逆数, 生成サンプルのエネルギー分布の差異について検討した。
クリーンなデータ分布, 逆流分布, 分類器を共同でモデル化するためのエネルギーベース共同配信支援訓練を提案する。
- 参考スコア(独自算出の注目度): 18.149950949071982
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Joint Energy-based Models (JEMs), a class of hybrid generative-discriminative models, are well known for their ability to achieve both high classification accuracy and generative capability within a single model. However, their robustness still lags significantly behind the classifiers based adversarial training (AT). Conversely, while AT is currently the most effective approach to improving the classifier's robustness, it typically sacrifices accuracy on clean data and lacks generative capability. The triple trade-off between classification accuracy, generative capability and robustness, raises a natural question: Can a single model simultaneously achieve high classification accuracy, adversarial robustness, and generative performance? -- a goal that has been rarely explored. To address this question, we systematically analyze the energy distribution differences of clean, adversarial, and generated samples across various JEM variants and adversarially trained models. We observe that AT tends to reduce the energy gap between clean and adversarial samples, while JEMs reduce the gap between clean and synthetic ones. This observation suggests a key insight: if the energy distributions of all three data types can be aligned, we might unify the strengths of AT and JEMs, resolving their inherent trade-offs. Building on this idea, we propose Energy-based Joint Distribution Adversarial Training (EB-JDAT), to jointly model the clean data distribution, the adversarial distribution, and the classifier by maximizing their joint probability. EB-JDAT is a general and flexible optimization method, compatible with various JEM variants. Extensive experimental results demonstrate that EB-JDAT not only maintains near original accuracy and generative capability of JEMs, but also significantly enhances robustness, even surpassing state-of-the-art ATs.
- Abstract(参考訳): ハイブリッド生成識別モデルのクラスであるJEM(Joint Energy-based Models)は、高い分類精度と単一のモデルにおける生成能力の両方を達成する能力でよく知られている。
しかし, その頑健さは, 分類器による対人訓練 (AT) よりも著しく遅れている。
逆に、ATは分類器の堅牢性を改善するための最も効果的なアプローチであるが、典型的にはクリーンなデータに対する精度を犠牲にして、生成能力を欠いている。
分類精度、生成能力、ロバスト性の3つのトレードオフは、自然な疑問を提起する: 1つのモデルが同時に高い分類精度、対向的ロバスト性、生成性能を達成することができるか?
めったに探索されていない目標。
この問題に対処するために, クリーン, 逆方向, および生成サンプルのエネルギー分布の差異を, 様々なJEM変異体および逆向きに訓練されたモデルで系統的に解析した。
我々は,ATがクリーン試料と逆試料のエネルギーギャップを減少させる傾向があるのに対し,JEMはクリーン試料と合成試料のエネルギーギャップを減少させる傾向があることを観察した。
この観察は重要な洞察を示唆している: もし3つのデータ型のエネルギー分布が一致すれば、ATとJEMの強みを統一し、それら固有のトレードオフを解消するかもしれない。
本研究では, クリーンなデータ分布, 逆流分布, 分類器を共同でモデル化し, その結合確率を最大化して, エネルギーをベースとした共同配電支援訓練(EB-JDAT)を提案する。
EB-JDAT は汎用的で柔軟な最適化手法であり、様々な JEM 変種と互換性がある。
EB-JDATはJEMの元々の精度と生成能力を維持できるだけでなく、最先端ATを超越した堅牢性を著しく向上することを示した。
関連論文リスト
- Towards Communication-Efficient Adversarial Federated Learning for Robust Edge Intelligence [43.4791103826602]
本稿では,事前学習モデルを用いて,コミュニケーション効率の高い対人学習(AFL)を実現することを目的とする。
クリーン画像と逆画像の両方に事前学習したモデルからの知識を活用することにより、事前学習されたモデル誘導型AFLフレームワークを提案する。
実験の結果,PM-AFLベースのフレームワークは他の手法よりも優れているだけでなく,通信効率も向上していることがわかった。
論文 参考訳(メタデータ) (2025-01-25T16:04:29Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Shedding More Light on Robust Classifiers under the lens of Energy-based Models [3.953603590878949]
我々は、敵対的訓練(AT)のダイナミクスについて、新しい視点を提供する。
ATにおけるエネルギー環境の分析により、標的外攻撃は、モデルの観点からの本来のデータよりも、より分散した(低エネルギー)敵画像を生成することが明らかとなった。
厳格なエビデンスを動機とした重エネルギー教育(WEAT)の提案
論文 参考訳(メタデータ) (2024-07-08T18:31:19Z) - Discrete Diffusion Modeling by Estimating the Ratios of the Data Distribution [67.9215891673174]
離散空間に対するスコアマッチングを自然に拡張する新たな損失として,スコアエントロピーを提案する。
標準言語モデリングタスク上で,Score Entropy Discrete Diffusionモデルをテストする。
論文 参考訳(メタデータ) (2023-10-25T17:59:12Z) - Towards Bridging the Performance Gaps of Joint Energy-based Models [1.933681537640272]
共同エネルギーベースモデル(JEM)は高い分類精度と画像生成品質を同時に達成する。
本稿では,JEMの精度ギャップと生成品質ギャップを橋渡しする様々なトレーニング手法を紹介する。
我々のSADA-JEMは、画像分類、画像生成、キャリブレーション、アウト・オブ・ディストリビューション検出、対向ロバストネスにおいて、最先端のパフォーマンスを達成し、JEMより優れています。
論文 参考訳(メタデータ) (2022-09-16T14:19:48Z) - Controllable and Compositional Generation with Latent-Space Energy-Based
Models [60.87740144816278]
制御可能な生成は、現実世界のアプリケーションで深層生成モデルの採用を成功させる上で重要な要件の1つである。
本研究では, エネルギーモデル(EBM)を用いて, 属性の集合上での合成生成を扱う。
エネルギー関数を論理演算子と合成することにより、分解能1024x1024のフォトリアリスティック画像を生成する際に、このような構成性を実現するのはこれが初めてである。
論文 参考訳(メタデータ) (2021-10-21T03:31:45Z) - Generative Max-Mahalanobis Classifiers for Image Classification,
Generation and More [6.89001867562902]
Max-Mahalanobis (MMC) は、画像分類と生成のために、識別、生成、共同で訓練することができる。
ジェネラティブMCC(Generative MMC)は、画像分類と生成のために、識別的、生成的、または共同でトレーニングできることを示します。
論文 参考訳(メタデータ) (2021-01-01T00:42:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。