論文の概要: Smudged Fingerprints: A Systematic Evaluation of the Robustness of AI Image Fingerprints
- arxiv url: http://arxiv.org/abs/2512.11771v1
- Date: Fri, 12 Dec 2025 18:33:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.869308
- Title: Smudged Fingerprints: A Systematic Evaluation of the Robustness of AI Image Fingerprints
- Title(参考訳): スマッジドフィンガープリント:AIイメージフィンガープリントのロバスト性の体系的評価
- Authors: Kai Yao, Marc Juarez,
- Abstract要約: モデル指紋検出技術は、ソースモデルにAI生成画像を帰属させるための有望なアプローチとして登場した。
我々は,これらの手法のセキュリティ評価を初めて実施し,ホワイトボックスとブラックボックスの両方を包含する脅威モデルを定式化した。
我々は5つの攻撃戦略を実装し、RGB、周波数、学習機能ドメインにまたがる14の代表的な指紋認証手法を評価した。
- 参考スコア(独自算出の注目度): 5.450474861880874
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Model fingerprint detection techniques have emerged as a promising approach for attributing AI-generated images to their source models, but their robustness under adversarial conditions remains largely unexplored. We present the first systematic security evaluation of these techniques, formalizing threat models that encompass both white- and black-box access and two attack goals: fingerprint removal, which erases identifying traces to evade attribution, and fingerprint forgery, which seeks to cause misattribution to a target model. We implement five attack strategies and evaluate 14 representative fingerprinting methods across RGB, frequency, and learned-feature domains on 12 state-of-the-art image generators. Our experiments reveal a pronounced gap between clean and adversarial performance. Removal attacks are highly effective, often achieving success rates above 80% in white-box settings and over 50% under constrained black-box access. While forgery is more challenging than removal, its success significantly varies across targeted models. We also identify a utility-robustness trade-off: methods with the highest attribution accuracy are often vulnerable to attacks. Although some techniques exhibit robustness in specific settings, none achieves high robustness and accuracy across all evaluated threat models. These findings highlight the need for techniques balancing robustness and accuracy, and identify the most promising approaches for advancing this goal.
- Abstract(参考訳): モデル指紋検出技術は、AI生成した画像をソースモデルに関連付けるための有望なアプローチとして登場したが、敵の条件下での堅牢性は、まだ明らかにされていない。
本稿では,これらの手法のセキュリティ評価について,ホワイトボックスアクセスとブラックボックスアクセスの両方を包含する脅威モデルと,アトリビューション回避のための痕跡の識別を消去する指紋除去と,ターゲットモデルへの誤った帰属を狙う指紋偽造の2つの攻撃目標を定式化する。
我々は,12の最先端画像生成装置上で,5つの攻撃戦略を実装し,RGB,周波数,学習領域にまたがる14の代表的な指紋認証手法を評価する。
実験の結果,清潔さと敵意の差が明らかとなった。
削除攻撃は非常に効果的で、多くの場合、ホワイトボックス設定で80%以上、ブラックボックスアクセスで50%以上の成功率を達成する。
偽造は削除よりも難しいが、その成功はターゲットモデルによって大きく異なる。
我々はまた、ユーティリティ・ロバスト性トレードオフを特定する。最も高い属性精度を持つメソッドは攻撃に対して脆弱であることが多い。
いくつかのテクニックは特定の設定で堅牢性を示すが、評価された脅威モデル全体で高い堅牢性と正確性を達成するものはない。
これらの知見は、ロバスト性と精度のバランスをとる技術の必要性を強調し、この目標を推進するための最も有望なアプローチを特定する。
関連論文リスト
- Deep Learning Models for Robust Facial Liveness Detection [56.08694048252482]
本研究では,現代のアンチスプーフィング手法の欠陥に対処する新しい深層学習モデルを用いて,ロバストな解を提案する。
テクスチャ解析と実際の人間の特性に関連する反射特性を革新的に統合することにより、我々のモデルは、顕著な精度でレプリカと真の存在を区別する。
論文 参考訳(メタデータ) (2025-08-12T17:19:20Z) - ForensicsSAM: Toward Robust and Unified Image Forgery Detection and Localization Resisting to Adversarial Attack [56.0056378072843]
高い転送性を持つ逆画像は上流モデルでのみ作成可能であることを示す。
本稿では,IFDLフレームワークを組み込んだForensicsSAMを提案する。
論文 参考訳(メタデータ) (2025-08-10T16:03:44Z) - T2V-OptJail: Discrete Prompt Optimization for Text-to-Video Jailbreak Attacks [67.91652526657599]
我々は、T2Vジェイルブレイク攻撃を離散最適化問題として定式化し、T2V-OptJailと呼ばれる共同目的ベース最適化フレームワークを提案する。
いくつかのT2Vモデルに対して大規模な実験を行い、オープンソースモデルと実際の商用クローズドソースモデルの両方をカバーする。
提案手法は,攻撃成功率の観点から既存手法よりも11.4%,10.0%向上する。
論文 参考訳(メタデータ) (2025-05-10T16:04:52Z) - A Hybrid Defense Strategy for Boosting Adversarial Robustness in Vision-Language Models [9.304845676825584]
本稿では,複数の攻撃戦略と高度な機械学習技術を統合した,新たな敵訓練フレームワークを提案する。
CIFAR-10 や CIFAR-100 などの実世界のデータセットで行った実験により,提案手法がモデルロバスト性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-10-18T23:47:46Z) - Counterfactual Explanations for Face Forgery Detection via Adversarial Removal of Artifacts [23.279652897139286]
ディープフェイクとして知られる、非常にリアルなAI生成顔偽造は、深刻な社会的懸念を引き起こしている。
本稿では,人工物除去の観点からの顔偽造検出の非現実的説明を行う。
本手法は,90%以上の攻撃成功率と優れた攻撃伝達性を実現する。
論文 参考訳(メタデータ) (2024-04-12T09:13:37Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - On the Adversarial Robustness of Camera-based 3D Object Detection [21.091078268929667]
本研究では, カメラを用いた3次元物体検出手法の諸条件下でのロバスト性について検討する。
鳥眼ビューに基づく表現は, 局所攻撃に対する強い強靭性を示す。
深さ推定のないアプローチは、強い強靭性を示す可能性がある。
マルチフレームベニグインプットを組み込むことで、敵攻撃を効果的に軽減することができる。
論文 参考訳(メタデータ) (2023-01-25T18:59:15Z) - Threat Model-Agnostic Adversarial Defense using Diffusion Models [14.603209216642034]
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
論文 参考訳(メタデータ) (2022-07-17T06:50:48Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。