論文の概要: AuthPrint: Fingerprinting Generative Models Against Malicious Model Providers
- arxiv url: http://arxiv.org/abs/2508.05691v1
- Date: Wed, 06 Aug 2025 12:17:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:05.934999
- Title: AuthPrint: Fingerprinting Generative Models Against Malicious Model Providers
- Title(参考訳): AuthPrint: 悪意のあるモデルプロバイダに対して生成モデルをフィンガープリントする
- Authors: Kai Yao, Marc Juarez,
- Abstract要約: メソッドは、モデルの出力空間から秘密の指紋を抽出し、プロバイダに未知の信頼された検証器に依存し、モデルをトレーニングして予測し、検証する。
実験により,本手法がGANおよび拡散モデルのインスタンスに対してほぼゼロのFPR@95%TPRを実現することを示す。
- 参考スコア(独自算出の注目度): 8.37060553485295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models are increasingly adopted in high-stakes domains, yet current deployments offer no mechanisms to verify the origin of model outputs. We address this gap by extending model fingerprinting techniques beyond the traditional collaborative setting to one where the model provider may act adversarially. To our knowledge, this is the first work to evaluate fingerprinting for provenance attribution under such a threat model. The methods rely on a trusted verifier that extracts secret fingerprints from the model's output space, unknown to the provider, and trains a model to predict and verify them. Our empirical evaluation shows that our methods achieve near-zero FPR@95%TPR for instances of GAN and diffusion models, even when tested on small modifications to the original architecture and training data. Moreover, the methods remain robust against adversarial attacks that actively modify the outputs to bypass detection. Source codes are available at https://github.com/PSMLab/authprint.
- Abstract(参考訳): 生成モデルは、ハイテイクなドメインではますます採用されていますが、現在のデプロイメントでは、モデルアウトプットの起源を検証するメカニズムを提供していません。
このギャップは、従来の協調的な設定を超えてモデルフィンガープリント技術を拡張して、モデルプロバイダが逆向きに振る舞うようなものにすることで解決する。
我々の知る限り、このような脅威モデルの下で、証明帰属の指紋認証を評価するのはこれが初めてである。
この手法は、モデルの出力空間から秘密の指紋を抽出する信頼された検証器に依存しており、プロバイダに未知であり、モデルをトレーニングして予測し、検証する。
実験により,本手法は,GANと拡散モデルのインスタンスに対してほぼゼロのFPR@95%TPRを達成できることを示した。
さらに、この手法は、バイパス検出に出力を積極的に修正する敵攻撃に対して頑健なままである。
ソースコードはhttps://github.com/PSMLab/authprint.comで入手できる。
関連論文リスト
- Learning Counterfactually Decoupled Attention for Open-World Model Attribution [75.52873383916672]
本稿では,オープンワールドモデル帰属のためのCDAL法を提案する。
我々の手法は、特に目に見えない新規攻撃に対して、最先端のモデルを大きなマージンで継続的に改善する。
論文 参考訳(メタデータ) (2025-06-29T03:25:45Z) - FIT-Print: Towards False-claim-resistant Model Ownership Verification via Targeted Fingerprint [22.398234847594242]
モデルフィンガープリントは、オープンソースモデルの知的財産権を保護するために広く採用されているアプローチである。
本稿では, 相手が第三者モデルの所有権を誤って主張する, 虚偽のクレーム攻撃に対して脆弱であることを明らかにする。
これらの知見に触発され,疑似クレーム攻撃に対処するための指紋認証パラダイム(FIT-Print)を提案する。
論文 参考訳(メタデータ) (2025-01-26T13:00:58Z) - Sample Correlation for Fingerprinting Deep Face Recognition [83.53005932513156]
SAC(SA Corremplelation)に基づく新しいモデル盗難検出手法を提案する。
SACは、顔認証や顔の感情認識を含む、深層顔認識における様々なモデル盗難攻撃に対して、AUC、p値、F1スコアの点で最高のパフォーマンスを示すことに成功した。
我々は,SAC-JC の評価を Tiny-ImageNet や CIFAR10 などのオブジェクト認識に拡張し,従来の手法よりも SAC-JC の優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-30T07:37:06Z) - MergePrint: Merge-Resistant Fingerprints for Robust Black-box Ownership Verification of Large Language Models [1.9249287163937978]
モデルマージを継続することのできる頑健な指紋を埋め込むための新しいフィンガープリント手法であるMergePrintを提案する。
MergePrintはブラックボックスのオーナシップの検証を可能にする。モデルが特定の指紋入力に対してターゲット出力を生成するかどうかのみを所有者が確認する必要がある。
論文 参考訳(メタデータ) (2024-10-11T08:00:49Z) - Are You Stealing My Model? Sample Correlation for Fingerprinting Deep
Neural Networks [86.55317144826179]
従来の方法は、常にモデル指紋として転送可能な敵の例を利用する。
本稿では,SAmple correlation (SAC) に基づく新しいモデル盗難検出手法を提案する。
SACは、敵の訓練や移動学習を含む様々なモデル盗難攻撃をうまく防いでいる。
論文 参考訳(メタデータ) (2022-10-21T02:07:50Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - Fingerprinting Image-to-Image Generative Adversarial Networks [53.02510603622128]
Generative Adversarial Networks (GAN) は様々なアプリケーションシナリオで広く利用されている。
本稿では,信頼できる第三者に基づく画像間GANの知的保護のための新しい指紋認証方式を提案する。
論文 参考訳(メタデータ) (2021-06-19T06:25:10Z) - Responsible Disclosure of Generative Models Using Scalable
Fingerprinting [70.81987741132451]
深層生成モデルは質的に新しいパフォーマンスレベルを達成した。
この技術がスプーフセンサーに誤用され、ディープフェイクを発生させ、大規模な誤情報を可能にするという懸念がある。
最先端のジェネレーションモデルを責任を持って公開することで、研究者や企業がモデルに指紋を刻むことができます。
論文 参考訳(メタデータ) (2020-12-16T03:51:54Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。