論文の概要: FIT-Print: Towards False-claim-resistant Model Ownership Verification via Targeted Fingerprint
- arxiv url: http://arxiv.org/abs/2501.15509v1
- Date: Sun, 26 Jan 2025 13:00:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:59:49.266999
- Title: FIT-Print: Towards False-claim-resistant Model Ownership Verification via Targeted Fingerprint
- Title(参考訳): FIT-Print:False-claim-resistant Model Ownership Verification by Targeted Fingerprint
- Authors: Shuo Shao, Haozhe Zhu, Hongwei Yao, Yiming Li, Tianwei Zhang, Zhan Qin, Kui Ren,
- Abstract要約: モデルフィンガープリントは、オープンソースモデルの知的財産権を保護するために広く採用されているアプローチである。
本稿では, 相手が第三者モデルの所有権を誤って主張する, 虚偽のクレーム攻撃に対して脆弱であることを明らかにする。
これらの知見に触発され,疑似クレーム攻撃に対処するための指紋認証パラダイム(FIT-Print)を提案する。
- 参考スコア(独自算出の注目度): 29.015707553430442
- License:
- Abstract: Model fingerprinting is a widely adopted approach to safeguard the intellectual property rights of open-source models by preventing their unauthorized reuse. It is promising and convenient since it does not necessitate modifying the protected model. In this paper, we revisit existing fingerprinting methods and reveal that they are vulnerable to false claim attacks where adversaries falsely assert ownership of any third-party model. We demonstrate that this vulnerability mostly stems from their untargeted nature, where they generally compare the outputs of given samples on different models instead of the similarities to specific references. Motivated by these findings, we propose a targeted fingerprinting paradigm (i.e., FIT-Print) to counteract false claim attacks. Specifically, FIT-Print transforms the fingerprint into a targeted signature via optimization. Building on the principles of FIT-Print, we develop bit-wise and list-wise black-box model fingerprinting methods, i.e., FIT-ModelDiff and FIT-LIME, which exploit the distance between model outputs and the feature attribution of specific samples as the fingerprint, respectively. Extensive experiments on benchmark models and datasets verify the effectiveness, conferrability, and resistance to false claim attacks of our FIT-Print.
- Abstract(参考訳): モデルフィンガープリントは、オープンソースモデルの知的財産権を保護するために広く採用されているアプローチである。
保護されたモデルを変更する必要がないので、有望で便利です。
本稿では,既存の指紋認証手法を再検討し,敵が疑似第三者モデルの所有権を誤って主張する偽のクレーム攻撃に対して脆弱であることを明らかにする。
この脆弱性は、通常、特定の参照との類似性ではなく、異なるモデル上で与えられたサンプルの出力を比較するという、ターゲットのない性質に起因していることを実証する。
これらの知見に触発され,疑似クレーム攻撃に対する標的指紋認証パラダイム(FIT-Print)を提案する。
具体的には、FIT-Printは最適化によって指紋をターゲットの署名に変換する。
FIT-Print の原理に基づいて,FIT-ModelDiff と FIT-LIME というビットワイドおよびリストワイドのブラックボックスモデルフィンガープリント法を開発した。
ベンチマークモデルとデータセットに関する大規模な実験により、FIT-Printの偽クレーム攻撃に対する有効性、参照可能性、抵抗性が検証された。
関連論文リスト
- Scalable Fingerprinting of Large Language Models [46.26999419117367]
我々はPerinucleus sampleと呼ばれる新しい手法を導入し、スケーラブルで永続的で無害な指紋を生成する。
この手法により,Llama-3.1-8Bモデルに24,576個の指紋を付加できることを示した。
論文 参考訳(メタデータ) (2025-02-11T18:43:07Z) - Sample Correlation for Fingerprinting Deep Face Recognition [83.53005932513156]
SAC(SA Corremplelation)に基づく新しいモデル盗難検出手法を提案する。
SACは、顔認証や顔の感情認識を含む、深層顔認識における様々なモデル盗難攻撃に対して、AUC、p値、F1スコアの点で最高のパフォーマンスを示すことに成功した。
我々は,SAC-JC の評価を Tiny-ImageNet や CIFAR10 などのオブジェクト認識に拡張し,従来の手法よりも SAC-JC の優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-30T07:37:06Z) - MergePrint: Merge-Resistant Fingerprints for Robust Black-box Ownership Verification of Large Language Models [1.9249287163937978]
モデルマージを継続することのできる頑健な指紋を埋め込むための新しいフィンガープリント手法であるMergePrintを提案する。
MergePrintはブラックボックスのオーナシップの検証を可能にする。モデルが特定の指紋入力に対してターゲット出力を生成するかどうかのみを所有者が確認する必要がある。
論文 参考訳(メタデータ) (2024-10-11T08:00:49Z) - Instructional Fingerprinting of Large Language Models [57.72356846657551]
本稿では,非常に軽量なインストラクションチューニングの一形態として,Large Language Model (LLM) の指紋認証に関する実験的検討を行う。
11個の LLM 実験の結果,このアプローチは軽量であり,モデルの正常な挙動には影響しないことがわかった。
また、パブリッシャーの誇張を防ぎ、指紋の推測やパラメータ効率のトレーニングに対する堅牢性を維持し、MITライセンスのような多段階の指紋認証をサポートする。
論文 参考訳(メタデータ) (2024-01-21T09:51:45Z) - VeriDIP: Verifying Ownership of Deep Neural Networks through Privacy
Leakage Fingerprints [16.564206424838485]
マシンラーニング・アズ・ア・サービスへのデプロイは、モデルプラジャリズムを引き起こし、著作権侵害につながる。
本稿では,モデルの知的特性を検証する VeriDIP という新しいオーナシップテスト手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T01:58:12Z) - On the Robustness of Dataset Inference [21.321310557323383]
機械学習(ML)モデルは、大量のデータ、計算リソース、技術的専門知識を必要とするため、トレーニングにコストがかかる。
オーナーシップ検証技術により、モデル盗難事件の被害者は、容疑者モデルが実際に彼らから盗まれたことを実証することができる。
フィンガープリント技術であるデータセット推論(DI)は,従来の手法よりも堅牢性や効率性が向上することが示されている。
論文 参考訳(メタデータ) (2022-10-24T22:17:55Z) - Are You Stealing My Model? Sample Correlation for Fingerprinting Deep
Neural Networks [86.55317144826179]
従来の方法は、常にモデル指紋として転送可能な敵の例を利用する。
本稿では,SAmple correlation (SAC) に基づく新しいモデル盗難検出手法を提案する。
SACは、敵の訓練や移動学習を含む様々なモデル盗難攻撃をうまく防いでいる。
論文 参考訳(メタデータ) (2022-10-21T02:07:50Z) - FBI: Fingerprinting models with Benign Inputs [17.323638042215013]
本稿では,モデルファミリとその変種の概念を一般化することにより,モデルの大幅な修正に耐性のある指紋認証方式を提案する。
我々は、修正されていない画像である良性入力が、両方のタスクに十分な材料であることを実証することによって、両方の目標を達成する。
どちらのアプローチも、かつてない1000以上のネットワークに対して実験的に検証されている。
論文 参考訳(メタデータ) (2022-08-05T13:55:36Z) - FedIPR: Ownership Verification for Federated Deep Neural Network Models [31.459374163080994]
これらのモデルは、複数の機関や人々が所有する貴重なトレーニングデータに基づいて構築されているため、フェデレートされた学習モデルは、盗作行為から保護されなければならない。
本稿では、FedDNNモデルの知的財産権(IPR)を主張するために、所有権署名を埋め込み、検証できる新しいフェデレーションディープニューラルネットワーク(FedDNN)のオーナシップ検証スキームについて述べる。
論文 参考訳(メタデータ) (2021-09-27T12:51:24Z) - Fingerprinting Image-to-Image Generative Adversarial Networks [53.02510603622128]
Generative Adversarial Networks (GAN) は様々なアプリケーションシナリオで広く利用されている。
本稿では,信頼できる第三者に基づく画像間GANの知的保護のための新しい指紋認証方式を提案する。
論文 参考訳(メタデータ) (2021-06-19T06:25:10Z) - Responsible Disclosure of Generative Models Using Scalable
Fingerprinting [70.81987741132451]
深層生成モデルは質的に新しいパフォーマンスレベルを達成した。
この技術がスプーフセンサーに誤用され、ディープフェイクを発生させ、大規模な誤情報を可能にするという懸念がある。
最先端のジェネレーションモデルを責任を持って公開することで、研究者や企業がモデルに指紋を刻むことができます。
論文 参考訳(メタデータ) (2020-12-16T03:51:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。