論文の概要: CLIP-Flow: A Universal Discriminator for AI-Generated Images Inspired by Anomaly Detection
- arxiv url: http://arxiv.org/abs/2508.09477v1
- Date: Wed, 13 Aug 2025 04:12:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.755067
- Title: CLIP-Flow: A Universal Discriminator for AI-Generated Images Inspired by Anomaly Detection
- Title(参考訳): CLIP-Flow: 異常検出にインスパイアされたAI生成画像のためのユニバーサル識別器
- Authors: Zhipeng Yuan, Kai Wang, Weize Quan, Dong-Ming Yan, Tieru Wu,
- Abstract要約: 本稿では,異常検出の観点から,汎用的なAI生成画像検出器を提案する。
我々の識別器は、任意のAIIにアクセスし、教師なし学習で一般化可能な表現を学ぶ必要はない。
- 参考スコア(独自算出の注目度): 15.404234946542692
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid advancement of AI generative models, the visual quality of AI-generated images (AIIs) has become increasingly close to natural images, which inevitably raises security concerns. Most AII detectors often employ the conventional image classification pipeline with natural images and AIIs (generated by a generative model), which can result in limited detection performance for AIIs from unseen generative models. To solve this, we proposed a universal AI-generated image detector from the perspective of anomaly detection. Our discriminator does not need to access any AIIs and learn a generalizable representation with unsupervised learning. Specifically, we use the pre-trained CLIP encoder as the feature extractor and design a normalizing flow-like unsupervised model. Instead of AIIs, proxy images, e.g., obtained by applying a spectral modification operation on natural images, are used for training. Our models are trained by minimizing the likelihood of proxy images, optionally combined with maximizing the likelihood of natural images. Extensive experiments demonstrate the effectiveness of our method on AIIs produced by various image generators.
- Abstract(参考訳): AI生成モデルの急速な進歩により、AI生成画像(AII)の視覚的品質は自然画像に近づき、セキュリティ上の懸念が必然的に高まっている。
ほとんどのAII検出器は、自然画像とAII(生成モデルによって生成される)を備えた従来の画像分類パイプラインを使用しており、その結果、目に見えない生成モデルからのAIIの検出性能が制限される。
そこで我々は,異常検出の観点から,汎用的なAI生成画像検出器を提案する。
我々の識別器は、任意のAIIにアクセスし、教師なし学習で一般化可能な表現を学ぶ必要はない。
具体的には、事前学習したCLIPエンコーダを特徴抽出器として使用し、正規化フローのような教師なしモデルの設計を行う。
AIIの代わりに、自然画像にスペクトル修正操作を適用したプロキシ画像、egをトレーニングに使用する。
我々のモデルは、プロキシ画像の可能性を最小限に抑え、自然画像の可能性の最大化と任意に組み合わせて訓練される。
画像生成装置が生成するAIIに対する本手法の有効性を実験により明らかにした。
関連論文リスト
- Towards Generalizable AI-Generated Image Detection via Image-Adaptive Prompt Learning [30.415427474641813]
本稿では,多様なテスト画像の処理の柔軟性を向上する,画像適応型プロンプト学習(IAPL)という新しいフレームワークを提案する。
これは2つの適応モジュール、すなわち条件情報学習器と信頼駆動適応予測からなる。
実験の結果、IAPLは最先端のパフォーマンスを達成しており、95.61%と96.7%は広く使われているUniversalFakeDetectとGenImageの2つのデータセットの精度を示している。
論文 参考訳(メタデータ) (2025-08-03T05:41:24Z) - Bi-Level Optimization for Self-Supervised AI-Generated Face Detection [56.57881725223548]
両レベル最適化に基づくAI生成顔検出器の自己教師方式を提案する。
我々の検出器は、一級・二級の分類設定において、既存のアプローチよりも大幅に優れています。
論文 参考訳(メタデータ) (2025-07-30T16:38:29Z) - Quality Assessment and Distortion-aware Saliency Prediction for AI-Generated Omnidirectional Images [70.49595920462579]
本研究は,AIGODIの品質評価と歪みを考慮したサリエンシ予測問題について検討する。
BLIP-2モデルに基づく共有エンコーダを用いた2つのモデルを提案する。
論文 参考訳(メタデータ) (2025-06-27T05:36:04Z) - Few-Shot Learner Generalizes Across AI-Generated Image Detection [14.069833211684715]
フーショット検出器(Few-Shot Detector, FSD)は、未知の偽画像を効果的に識別するための特殊な距離空間を学習するAI生成画像検出器である。
実験の結果、FSDはGenImageデータセットの平均精度をわずか10ドルの追加サンプルで+11.6%以上向上した。
論文 参考訳(メタデータ) (2025-01-15T12:33:11Z) - Self-Supervised Learning for Detecting AI-Generated Faces as Anomalies [58.11545090128854]
本稿では、写真顔画像から純粋にカメラ固有の特徴と顔特有の特徴の自己教師付き学習を活用することで、AI生成顔の異常検出手法について述べる。
提案手法の成功は,特徴抽出器を訓練して4つの通常交換可能な画像ファイルフォーマット(EXIF)をランク付けし,人工的に操作された顔画像の分類を行うプリテキストタスクを設計することにある。
論文 参考訳(メタデータ) (2025-01-04T06:23:24Z) - Detecting Discrepancies Between AI-Generated and Natural Images Using Uncertainty [91.64626435585643]
本稿では,誤用と関連するリスクを軽減するために,予測不確実性を利用してAI生成画像を検出する新しい手法を提案する。
この動機は、自然画像とAI生成画像の分布差に関する基本的な仮定から生じる。
本稿では,AI生成画像の検出スコアとして,大規模事前学習モデルを用いて不確実性を計算することを提案する。
論文 参考訳(メタデータ) (2024-12-08T11:32:25Z) - Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Online Detection of AI-Generated Images [17.30253784649635]
この設定における一般化、Nモデルのトレーニング、および次の(N+k)上でのテストについて研究する。
我々は、この手法を画素予測に拡張し、自動的に生成されたインペイントデータを用いて、強い性能を示す。
また、商用モデルが自動データ生成に利用できないような設定では、画素検出器が合成画像全体に対してのみ訓練可能であるかどうかを評価する。
論文 参考訳(メタデータ) (2023-10-23T17:53:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。