論文の概要: DGS-Net: Distillation-Guided Gradient Surgery for CLIP Fine-Tuning in AI-Generated Image Detection
- arxiv url: http://arxiv.org/abs/2511.13108v1
- Date: Mon, 17 Nov 2025 08:05:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.985231
- Title: DGS-Net: Distillation-Guided Gradient Surgery for CLIP Fine-Tuning in AI-Generated Image Detection
- Title(参考訳): DGS-Net:AI生成画像検出におけるCLIP微細調整のための蒸留誘導勾配手術
- Authors: Jiazhen Yan, Ziqiang Li, Fan Wang, Boyu Wang, Zhangjie Fu,
- Abstract要約: 本稿では、タスク非関連コンポーネントを抑えつつ、転送可能な事前学習を保存できる新しいフレームワークを提案する。
50の生成モデルに対する実験により,本手法は平均マージン6.6で最先端の手法より優れていることが示された。
- 参考スコア(独自算出の注目度): 18.12379637088218
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid progress of generative models such as GANs and diffusion models has led to the widespread proliferation of AI-generated images, raising concerns about misinformation, privacy violations, and trust erosion in digital media. Although large-scale multimodal models like CLIP offer strong transferable representations for detecting synthetic content, fine-tuning them often induces catastrophic forgetting, which degrades pre-trained priors and limits cross-domain generalization. To address this issue, we propose the Distillation-guided Gradient Surgery Network (DGS-Net), a novel framework that preserves transferable pre-trained priors while suppressing task-irrelevant components. Specifically, we introduce a gradient-space decomposition that separates harmful and beneficial descent directions during optimization. By projecting task gradients onto the orthogonal complement of harmful directions and aligning with beneficial ones distilled from a frozen CLIP encoder, DGS-Net achieves unified optimization of prior preservation and irrelevant suppression. Extensive experiments on 50 generative models demonstrate that our method outperforms state-of-the-art approaches by an average margin of 6.6, achieving superior detection performance and generalization across diverse generation techniques.
- Abstract(参考訳): GANや拡散モデルのような生成モデルの急速な進歩は、AI生成画像の普及につながり、誤情報、プライバシー侵害、デジタルメディアにおける信頼侵食への懸念が高まっている。
CLIPのような大規模マルチモーダルモデルは、合成内容を検出するための強力な伝達可能な表現を提供するが、微調整は、しばしば破滅的な忘れ込みを引き起こす。
そこで本研究では,DGS-Net(Distillation-Guided Gradient Surgery Network, DGS-Net)を提案する。
具体的には、最適化時に有害で有益な降下方向を分離する勾配空間分解を導入する。
凍結したCLIPエンコーダから抽出した有害な方向の直交補体にタスク勾配を投影することにより、DGS-Netは事前保存と無関係抑制の統一的な最適化を実現する。
50個の生成モデルに対する実験により,本手法は平均マージン6.6で最先端の手法よりも優れ,優れた検出性能と多種多様な生成手法の一般化を実現していることが示された。
関連論文リスト
- GAMMA: Generalizable Alignment via Multi-task and Manipulation-Augmented Training for AI-Generated Image Detection [26.484706270778318]
本稿では,ドメインバイアスを低減し,セマンティックアライメントを強化するための新しいトレーニングフレームワークであるGAMMAを提案する。
多重分割ヘッドと分類ヘッドを併用したマルチタスク監視を採用し、様々な生成領域にまたがる画素レベルのソース属性を実現する。
提案手法は,GenImageベンチマークにおける最先端の一般化性能を実現し,精度を5.8%向上させるとともに,GPT-4oのような新たにリリースされた生成モデルに対する強靭性も維持する。
論文 参考訳(メタデータ) (2025-09-12T13:46:54Z) - Multi-Step Guided Diffusion for Image Restoration on Edge Devices: Toward Lightweight Perception in Embodied AI [0.0]
本稿では,画像品質,知覚精度,一般化を著しく向上させる多段階最適化手法を提案する。
超分解能およびガウス劣化実験により,ステップ毎の勾配更新の増加はLPIPSとPSNRを最小遅延オーバーヘッドで改善することを示した。
我々の発見はMPGDが、ドローンや移動ロボットのような組込みAIエージェントのリアルタイム視覚認識のための軽量でプラグアンドプレイの修復モジュールとしての可能性を強調した。
論文 参考訳(メタデータ) (2025-06-08T21:11:25Z) - Restoration Score Distillation: From Corrupted Diffusion Pretraining to One-Step High-Quality Generation [82.39763984380625]
Score Distillation (DSD) の原理的一般化である textitRestoration Score Distillation (RSD) を提案する。
RSDは、ぼやけた画像、不完全画像、低解像度画像など、広範囲の汚職タイプに対応している。
自然と科学の両方のデータセットの様々な復元作業において、教師モデルを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-19T17:21:03Z) - Detect-and-Guide: Self-regulation of Diffusion Models for Safe Text-to-Image Generation via Guideline Token Optimization [22.225141381422873]
有害なコンテンツを生成するテキストと画像の拡散モデルに対する懸念が高まっている。
概念アンラーニングや安全ガイダンスのようなポストホックモデルの介入技術は、これらのリスクを軽減するために開発されている。
本稿では,自己診断と詳細な自己制御を行うための安全生成フレームワークであるDector-and-Guide(DAG)を提案する。
DAGは最先端の安全な生成性能を実現し、有害性軽減とテキスト追跡性能を現実のプロンプトでバランスさせる。
論文 参考訳(メタデータ) (2025-03-19T13:37:52Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - End-to-End Diffusion Latent Optimization Improves Classifier Guidance [81.27364542975235]
拡散潜水剤(DOODL)の直接最適化は,新しいガイダンス手法である。
拡散潜伏剤の最適化によるプラグアンドプレイ誘導を可能にする。
計算と人的評価の指標において、一段階の分類器ガイダンスよりも優れている。
論文 参考訳(メタデータ) (2023-03-23T22:43:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。