論文の概要: PRISM: Phase-enhanced Radial-based Image Signature Mapping framework for fingerprinting AI-generated images
- arxiv url: http://arxiv.org/abs/2509.15270v1
- Date: Thu, 18 Sep 2025 10:57:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:10.836996
- Title: PRISM: Phase-enhanced Radial-based Image Signature Mapping framework for fingerprinting AI-generated images
- Title(参考訳): PRISM:AI生成画像の指紋化のための位相強調ラジアル画像シグナチャマッピングフレームワーク
- Authors: Emanuele Ricco, Elia Onofri, Lorenzo Cima, Stefano Cresci, Roberto Di Pietro,
- Abstract要約: 我々は,AI生成画像のフィンガープリントのためのスケーラブルなフレームワークであるPRISMを紹介する。
PRISM-36Kは、6つのテキスト・ツー・イメージのGANモデルと拡散モデルによって生成される36,000の画像からなる新しいデータセットである。
PRISMは、このデータセットに対して92.04%の属性精度を達成する。
- 参考スコア(独自算出の注目度): 2.119461028150219
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A critical need has emerged for generative AI: attribution methods. That is, solutions that can identify the model originating AI-generated content. This feature, generally relevant in multimodal applications, is especially sensitive in commercial settings where users subscribe to paid proprietary services and expect guarantees about the source of the content they receive. To address these issues, we introduce PRISM, a scalable Phase-enhanced Radial-based Image Signature Mapping framework for fingerprinting AI-generated images. PRISM is based on a radial reduction of the discrete Fourier transform that leverages amplitude and phase information to capture model-specific signatures. The output of the above process is subsequently clustered via linear discriminant analysis to achieve reliable model attribution in diverse settings, even if the model's internal details are inaccessible. To support our work, we construct PRISM-36K, a novel dataset of 36,000 images generated by six text-to-image GAN- and diffusion-based models. On this dataset, PRISM achieves an attribution accuracy of 92.04%. We additionally evaluate our method on four benchmarks from the literature, reaching an average accuracy of 81.60%. Finally, we evaluate our methodology also in the binary task of detecting real vs fake images, achieving an average accuracy of 88.41%. We obtain our best result on GenImage with an accuracy of 95.06%, whereas the original benchmark achieved 82.20%. Our results demonstrate the effectiveness of frequency-domain fingerprinting for cross-architecture and cross-dataset model attribution, offering a viable solution for enforcing accountability and trust in generative AI systems.
- Abstract(参考訳): 生成的AIにとって重要なニーズは、属性メソッドである。
つまり、AI生成コンテンツからモデルを特定するソリューションだ。
この機能は、一般的にマルチモーダルアプリケーションに関連するもので、ユーザーが有料のプロプライエタリなサービスに加入し、受信したコンテンツのソースに関する保証を期待する商業的設定に特に敏感である。
これらの問題に対処するために、我々は、AI生成画像のフィンガープリントのためのスケーラブルな位相拡張型ラジアル画像署名マッピングフレームワークであるPRISMを紹介した。
PRISMは、振幅と位相情報を利用してモデル固有のシグネチャをキャプチャする離散フーリエ変換のラジアル還元に基づいている。
上記のプロセスの出力は、たとえモデルの内部詳細がアクセスできないとしても、線形判別分析によってクラスタ化され、様々な設定で信頼性の高いモデル属性が達成される。
PRISM-36Kは、6つのテキスト・ツー・イメージGANモデルと拡散モデルによって生成される36,000の画像からなる新しいデータセットである。
このデータセットでは、PRISMは属性精度が92.04%に達する。
さらに,本手法を文献から4つのベンチマークで評価し,平均精度81.60%に達した。
最後に,本手法を実画像と偽画像のバイナリタスクでも評価し,平均精度88.41%を実現した。
GenImageでは95.06%の精度で最高の結果を得たが、オリジナルのベンチマークでは82.20%に達した。
本研究は, クロスアーキテクチャおよびクロスデータセットモデル属性に対する周波数ドメインフィンガープリントの有効性を実証し, 生成型AIシステムにおける説明責任と信頼の強化に有効なソリューションを提供する。
関連論文リスト
- RAVID: Retrieval-Augmented Visual Detection: A Knowledge-Driven Approach for AI-Generated Image Identification [14.448350657613368]
RAVIDは、視覚検索強化生成(RAG)を活用するAI生成画像検出のための最初のフレームワークである
提案手法では,表現学習を改善するためにカテゴリ関連プロンプトを付加した細調整のCLIP画像エンコーダであるRAVID CLIPを利用する。
RAVIDの平均精度は80.27%で、最先端のC2P-CLIPでは63.44%である。
論文 参考訳(メタデータ) (2025-08-05T23:10:56Z) - So-Fake: Benchmarking and Explaining Social Media Image Forgery Detection [75.79507634008631]
So-Fake-Setは、200万以上の高品質な画像、多様な生成源、35の最先端生成モデルを用いて合成された画像を備えたソーシャルメディア指向のデータセットである。
本稿では,高精度な偽造検出,高精度な位置推定,解釈可能な視覚論理による説明可能な推論に強化学習を利用する高度な視覚言語フレームワークであるSo-Fake-R1を提案する。
論文 参考訳(メタデータ) (2025-05-24T11:53:35Z) - A Meaningful Perturbation Metric for Evaluating Explainability Methods [55.09730499143998]
本稿では,画像生成モデルを用いて標的摂動を行う新しい手法を提案する。
具体的には,画像の忠実さを保ちながら,入力画像の高関連画素のみを塗布し,モデルの予測を変更することに焦点を当てる。
これは、しばしばアウト・オブ・ディストリビューションの修正を生み出し、信頼できない結果をもたらす既存のアプローチとは対照的である。
論文 参考訳(メタデータ) (2025-04-09T11:46:41Z) - Camera Model Identification with SPAIR-Swin and Entropy based Non-Homogeneous Patches [8.348489591573966]
ソースカメラモデル識別(SCMI)は、画像鑑定において、認証と著作権保護を含む応用において重要な役割を担っている。
空間的注意機構と逆残差ブロック(SPAIR)とスウィントランスフォーマーを組み合わせた新しいモデルであるSPAIR-Swinを提案する。
SPAIR-Swinは、グローバル機能とローカル機能の両方を効果的にキャプチャし、SCMIに特に有効であるノイズパターンなどのアーティファクトの堅牢な識別を可能にする。
論文 参考訳(メタデータ) (2025-03-28T03:47:28Z) - CO-SPY: Combining Semantic and Pixel Features to Detect Synthetic Images by AI [58.35348718345307]
実際の画像とAI生成画像を区別する現在の取り組みには、一般化が欠如している可能性がある。
既存のセマンティック機能を強化した新しいフレームワークCo-Spyを提案する。
また、5つの実画像データセットと22の最先端生成モデルからなる包括的データセットであるCo-Spy-Benchを作成します。
論文 参考訳(メタデータ) (2025-03-24T01:59:29Z) - SAGI: Semantically Aligned and Uncertainty Guided AI Image Inpainting [11.216906046169683]
SAGI-DはAIが生成する塗り絵の最大かつ最も多様なデータセットである。
実験の結果,セマンティックアライメントは画像の品質と美学を著しく改善することがわかった。
SAGI-Dを使っていくつかの画像法医学的アプローチを訓練すると、ドメイン内の検出性能は平均37.4%向上する。
論文 参考訳(メタデータ) (2025-02-10T15:56:28Z) - Semi-Truths: A Large-Scale Dataset of AI-Augmented Images for Evaluating Robustness of AI-Generated Image detectors [62.63467652611788]
実画像27,600枚、223,400枚、AI拡張画像1,472,700枚を含むSEMI-TRUTHSを紹介する。
それぞれの画像には、検出器のロバスト性の標準化と目標評価のためのメタデータが添付されている。
以上の結果から,現状の検出器は摂動の種類や程度,データ分布,拡張方法に様々な感度を示すことが示唆された。
論文 参考訳(メタデータ) (2024-11-12T01:17:27Z) - On quantifying and improving realism of images generated with diffusion [50.37578424163951]
与えられた画像の5つの統計的測度から算出した画像リアリズムスコア(IRS)と呼ばれるメトリクスを提案する。
IRSは、与えられた画像を実または偽のものとして分類する手段として容易に利用できる。
我々は,安定拡散モデル (SDM) , Dalle2, Midjourney, BigGAN による偽画像の検出に成功して,提案したIRSのモデルおよびデータに依存しない性質を実験的に確立した。
このデータセットは、高品質の4つのモデルによって生成される100のクラスに対して1,000のサンプルを提供します。
論文 参考訳(メタデータ) (2023-09-26T08:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。