論文の概要: RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection
- arxiv url: http://arxiv.org/abs/2405.20112v1
- Date: Thu, 30 May 2024 14:49:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 13:58:47.044032
- Title: RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection
- Title(参考訳): RIGID:ロバストAI生成画像検出のためのトレーニング不要でモデルに依存しないフレームワーク
- Authors: Zhiyuan He, Pin-Yu Chen, Tsung-Yi Ho,
- Abstract要約: RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
- 参考スコア(独自算出の注目度): 60.960988614701414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid advances in generative AI models have empowered the creation of highly realistic images with arbitrary content, raising concerns about potential misuse and harm, such as Deepfakes. Current research focuses on training detectors using large datasets of generated images. However, these training-based solutions are often computationally expensive and show limited generalization to unseen generated images. In this paper, we propose a training-free method to distinguish between real and AI-generated images. We first observe that real images are more robust to tiny noise perturbations than AI-generated images in the representation space of vision foundation models. Based on this observation, we propose RIGID, a training-free and model-agnostic method for robust AI-generated image detection. RIGID is a simple yet effective approach that identifies whether an image is AI-generated by comparing the representation similarity between the original and the noise-perturbed counterpart. Our evaluation on a diverse set of AI-generated images and benchmarks shows that RIGID significantly outperforms existing trainingbased and training-free detectors. In particular, the average performance of RIGID exceeds the current best training-free method by more than 25%. Importantly, RIGID exhibits strong generalization across different image generation methods and robustness to image corruptions.
- Abstract(参考訳): 生成型AIモデルの急速な進歩は、任意のコンテンツを持つ非常にリアルなイメージの作成を促進し、Deepfakesのような潜在的な誤用や害に対する懸念を高めている。
現在の研究は、生成された画像の大きなデータセットを使用して検出器を訓練することに焦点を当てている。
しかし、これらのトレーニングベースのソリューションは、しばしば計算コストが高く、生成しない画像に対して限定的な一般化を示す。
本稿では,実画像とAI画像とを区別する学習自由度手法を提案する。
まず、視覚基礎モデルの表現空間におけるAI生成画像よりも、実画像が小さなノイズ摂動に対して頑健であることが観察された。
そこで本研究では,堅牢なAI生成画像検出のためのトレーニング不要かつモデルに依存しないRIGIDを提案する。
RIGIDは、画像がAI生成されているかどうかを、オリジナルとノイズの混同した表現の類似性を比較することで識別する、シンプルで効果的なアプローチである。
多様なAI生成画像とベンチマークに対する評価は、RIGIDが既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っていることを示している。
特に、RIGIDの平均性能は、現在の最高のトレーニングフリーメソッドを25%以上上回っている。
重要な点として、RIGIDは画像生成方法にまたがる強力な一般化と、画像の破損に対する堅牢性を示す。
関連論文リスト
- Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - Detecting the Undetectable: Combining Kolmogorov-Arnold Networks and MLP for AI-Generated Image Detection [0.0]
本稿では,最先端な生成AIモデルによって生成された画像の堅牢な識別が可能な,新しい検出フレームワークを提案する。
従来の多層パーセプトロン(MLP)とセマンティックイメージ埋め込みを統合した分類システムを提案する。
論文 参考訳(メタデータ) (2024-08-18T06:00:36Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - A Sanity Check for AI-generated Image Detection [49.08585395873425]
本稿では,AIによる画像検出の課題が解決されたかどうかの検査を行う。
既存の手法の一般化を定量化するために,Chameleonデータセット上で,既製のAI生成画像検出器を9つ評価した。
複数の専門家が同時に視覚的アーチファクトやノイズパターンを抽出するAI生成画像検出装置(AID)を提案する。
論文 参考訳(メタデータ) (2024-06-27T17:59:49Z) - Improving Interpretability and Robustness for the Detection of AI-Generated Images [6.116075037154215]
凍結したCLIP埋め込みに基づいて、既存の最先端AIGI検出手法を解析する。
さまざまなAIジェネレータが生成する画像が実際の画像とどのように異なるかを示す。
論文 参考訳(メタデータ) (2024-06-21T10:33:09Z) - Invisible Relevance Bias: Text-Image Retrieval Models Prefer AI-Generated Images [67.18010640829682]
我々は,AI生成画像がテキスト画像検索モデルに目に見えない関連性バイアスをもたらすことを示す。
検索モデルのトレーニングデータにAI生成画像を含めると、目に見えない関連性バイアスが増す。
本研究では,目に見えない関連バイアスを軽減するための効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:22:58Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - GenImage: A Million-Scale Benchmark for Detecting AI-Generated Image [28.38575401686718]
我々は、100万組のAI生成フェイクイメージと実際の画像の収集を含むGenImageデータセットを紹介した。
この利点は、GenImageで訓練された検出器が徹底的な評価を行い、多様な画像に適用可能であることを示すことである。
本研究では,本データセットの包括的解析を行い,実世界のシナリオに類似した検出手法を評価するための2つの課題を提案する。
論文 参考訳(メタデータ) (2023-06-14T15:21:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。