論文の概要: Causal Fingerprints of AI Generative Models
- arxiv url: http://arxiv.org/abs/2509.15406v1
- Date: Thu, 18 Sep 2025 20:33:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:10.894037
- Title: Causal Fingerprints of AI Generative Models
- Title(参考訳): AI生成モデルの因果指紋
- Authors: Hui Xu, Chi Liu, Congcong Zhu, Minghao Wang, Youyang Qu, Longxiang Gao,
- Abstract要約: 完全なモデル指紋は、画像の出現とモデルトレースの因果関係を反映すべきである、と我々は主張する。
本稿では、画像固有のコンテンツやスタイルから切り離す因果分離フレームワークを提案する。
提案手法は, モデル属性における既存手法よりも優れており, 偽造検出, モデル著作権追跡, アイデンティティ保護の強力な可能性を示している。
- 参考スコア(独自算出の注目度): 18.85839181425287
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: AI generative models leave implicit traces in their generated images, which are commonly referred to as model fingerprints and are exploited for source attribution. Prior methods rely on model-specific cues or synthesis artifacts, yielding limited fingerprints that may generalize poorly across different generative models. We argue that a complete model fingerprint should reflect the causality between image provenance and model traces, a direction largely unexplored. To this end, we conceptualize the \emph{causal fingerprint} of generative models, and propose a causality-decoupling framework that disentangles it from image-specific content and style in a semantic-invariant latent space derived from pre-trained diffusion reconstruction residual. We further enhance fingerprint granularity with diverse feature representations. We validate causality by assessing attribution performance across representative GANs and diffusion models and by achieving source anonymization using counterfactual examples generated from causal fingerprints. Experiments show our approach outperforms existing methods in model attribution, indicating strong potential for forgery detection, model copyright tracing, and identity protection.
- Abstract(参考訳): AI生成モデルは生成した画像に暗黙の痕跡を残し、これは一般的にモデル指紋と呼ばれ、ソース属性に利用される。
それまでの手法では、モデル固有のキューや合成アーティファクトに依存しており、異なる生成モデルであまり一般化できないような限定的な指紋が得られていた。
完全なモデル指紋は、画像の出現とモデルトレースの因果関係を反映するべきだ、と我々は主張する。
この目的のために、生成モデルの「emph{causal fingerprint}」を概念化し、事前学習された拡散再構成残差から導かれる意味不変な潜伏空間において、画像固有の内容やスタイルからそれを切り離す因果分解フレームワークを提案する。
さらに,多彩な特徴表現で指紋の粒度を向上する。
我々は,代表的GANおよび拡散モデル間の属性特性を評価し,因果指紋から生成された反実例を用いてソース匿名化を行うことにより因果性を評価する。
実験により,提案手法はモデル属性の既存手法よりも優れており,偽造検出,モデル著作権の追跡,アイデンティティ保護の可能性が示唆された。
関連論文リスト
- Learning Counterfactually Decoupled Attention for Open-World Model Attribution [75.52873383916672]
本稿では,オープンワールドモデル帰属のためのCDAL法を提案する。
我々の手法は、特に目に見えない新規攻撃に対して、最先端のモデルを大きなマージンで継続的に改善する。
論文 参考訳(メタデータ) (2025-06-29T03:25:45Z) - Revealing the Implicit Noise-based Imprint of Generative Models [71.94916898756684]
本稿では,検出タスクにノイズに基づくモデル固有インプリントを利用する新しいフレームワークを提案する。
様々な生成モデルからのインプリントを集約することにより、将来のモデルのインプリントを外挿してトレーニングデータを拡張することができる。
提案手法は,GenImage,Synthbuster,Chameleonの3つの公開ベンチマークにおいて,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-03-12T12:04:53Z) - How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - ManiFPT: Defining and Analyzing Fingerprints of Generative Models [16.710998621718193]
生成モデルにおけるアーティファクトと指紋の定義を形式化する。
我々は実際にそれらを計算するためのアルゴリズムを提案する。
指紋の構造について検討し,異なる設計選択が生成過程に与える影響を非常に予測できることを示した。
論文 参考訳(メタデータ) (2024-02-16T01:58:35Z) - Model Synthesis for Zero-Shot Model Attribution [26.835046772924258]
生成モデルは、芸術、デザイン、人間とコンピュータの相互作用などの様々な分野を形作っている。
実世界の生成モデルの指紋パターンを模倣した多数の合成モデルを生成するモデル合成手法を提案する。
実験により, この指紋抽出装置は, 合成モデルのみを訓練し, 様々な実世界の生成モデルに対して, 印象的なゼロショットの一般化を実現することができた。
論文 参考訳(メタデータ) (2023-07-29T13:00:42Z) - Learning Robust Representations Of Generative Models Using Set-Based
Artificial Fingerprints [14.191129493685212]
既存の手法はサンプル分布を通してモデル間の距離を近似する。
我々は、生成モデルの表現として、ユニークな痕跡(いわゆる「人工指紋」)を考える。
セットエンコーディングとコントラスト学習に基づく新しい学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-04T23:20:07Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Responsible Disclosure of Generative Models Using Scalable
Fingerprinting [70.81987741132451]
深層生成モデルは質的に新しいパフォーマンスレベルを達成した。
この技術がスプーフセンサーに誤用され、ディープフェイクを発生させ、大規模な誤情報を可能にするという懸念がある。
最先端のジェネレーションモデルを責任を持って公開することで、研究者や企業がモデルに指紋を刻むことができます。
論文 参考訳(メタデータ) (2020-12-16T03:51:54Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。