論文の概要: Adversarial Example Based Fingerprinting for Robust Copyright Protection in Split Learning
- arxiv url: http://arxiv.org/abs/2503.04825v1
- Date: Wed, 05 Mar 2025 06:07:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:19:49.235766
- Title: Adversarial Example Based Fingerprinting for Robust Copyright Protection in Split Learning
- Title(参考訳): スプリット学習におけるロバスト保護のための逆例に基づくフィンガープリント
- Authors: Zhangting Lin, Mingfu Xue, Kewei Chen, Wenmao Liu, Xiang Gao, Leo Yu Zhang, Jian Wang, Yushu Zhang,
- Abstract要約: 本研究では,指紋を有効かつ堅牢な著作権保護に活用する分割学習モデルの最初の著作権保護手法を提案する。
これは、MNISTで100%、CIFAR-10で98%、ImageNetで100%の顕著な指紋認証成功率(FVSR)で示される。
- 参考スコア(独自算出の注目度): 17.08424946015621
- License:
- Abstract: Currently, deep learning models are easily exposed to data leakage risks. As a distributed model, Split Learning thus emerged as a solution to address this issue. The model is splitted to avoid data uploading to the server and reduce computing requirements while ensuring data privacy and security. However, the transmission of data between clients and server creates a potential vulnerability. In particular, model is vulnerable to intellectual property (IP) infringement such as piracy. Alarmingly, a dedicated copyright protection framework tailored for Split Learning models is still lacking. To this end, we propose the first copyright protection scheme for Split Learning model, leveraging fingerprint to ensure effective and robust copyright protection. The proposed method first generates a set of specifically designed adversarial examples. Then, we select those examples that would induce misclassifications to form the fingerprint set. These adversarial examples are embedded as fingerprints into the model during the training process. Exhaustive experiments highlight the effectiveness of the scheme. This is demonstrated by a remarkable fingerprint verification success rate (FVSR) of 100% on MNIST, 98% on CIFAR-10, and 100% on ImageNet, respectively. Meanwhile, the model's accuracy only decreases slightly, indicating that the embedded fingerprints do not compromise model performance. Even under label inference attack, our approach consistently achieves a high fingerprint verification success rate that ensures robust verification.
- Abstract(参考訳): 現在、ディープラーニングモデルはデータ漏洩のリスクに容易にさらされている。
分散モデルであるSplit Learningは、この問題に対処するためのソリューションとして登場した。
データプライバシとセキュリティを確保しながら、サーバへのデータアップロードを回避し、コンピューティング要件を削減するため、モデルは分割される。
しかし、クライアントとサーバ間のデータの転送は潜在的な脆弱性を生み出す。
特に、モデルは海賊行為のような知的財産権(IP)侵害に弱い。
同時に、Split Learningモデルに適した専用の著作権保護フレームワークも不足している。
そこで本研究では,指紋を有効かつ堅牢な著作権保護に活用する,分割学習モデルのための最初の著作権保護手法を提案する。
提案手法は,まず,特殊に設計された逆数例の集合を生成する。
そして、指紋集合を形成するために誤分類を引き起こすような例を選択します。
これらの逆の例は、トレーニングプロセス中にモデルに指紋として埋め込まれる。
発掘実験は、このスキームの有効性を強調している。
これは、MNISTで100%、CIFAR-10で98%、ImageNetで100%の顕著な指紋認証成功率(FVSR)で示される。
一方、モデルの精度はわずかに低下し、埋め込み指紋がモデル性能を損なわないことを示す。
ラベル推論攻撃下であっても,本手法は高い指紋認証成功率を実現し,堅牢な検証を確実にする。
関連論文リスト
- Scalable Fingerprinting of Large Language Models [46.26999419117367]
我々はPerinucleus sampleと呼ばれる新しい手法を導入し、スケーラブルで永続的で無害な指紋を生成する。
この手法により,Llama-3.1-8Bモデルに24,576個の指紋を付加できることを示した。
論文 参考訳(メタデータ) (2025-02-11T18:43:07Z) - FIT-Print: Towards False-claim-resistant Model Ownership Verification via Targeted Fingerprint [29.015707553430442]
モデルフィンガープリントは、オープンソースモデルの知的財産権を保護するために広く採用されているアプローチである。
本稿では, 相手が第三者モデルの所有権を誤って主張する, 虚偽のクレーム攻撃に対して脆弱であることを明らかにする。
これらの知見に触発され,疑似クレーム攻撃に対処するための指紋認証パラダイム(FIT-Print)を提案する。
論文 参考訳(メタデータ) (2025-01-26T13:00:58Z) - Sample Correlation for Fingerprinting Deep Face Recognition [83.53005932513156]
SAC(SA Corremplelation)に基づく新しいモデル盗難検出手法を提案する。
SACは、顔認証や顔の感情認識を含む、深層顔認識における様々なモデル盗難攻撃に対して、AUC、p値、F1スコアの点で最高のパフォーマンスを示すことに成功した。
我々は,SAC-JC の評価を Tiny-ImageNet や CIFAR10 などのオブジェクト認識に拡張し,従来の手法よりも SAC-JC の優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-30T07:37:06Z) - Instructional Fingerprinting of Large Language Models [57.72356846657551]
本稿では,非常に軽量なインストラクションチューニングの一形態として,Large Language Model (LLM) の指紋認証に関する実験的検討を行う。
11個の LLM 実験の結果,このアプローチは軽量であり,モデルの正常な挙動には影響しないことがわかった。
また、パブリッシャーの誇張を防ぎ、指紋の推測やパラメータ効率のトレーニングに対する堅牢性を維持し、MITライセンスのような多段階の指紋認証をサポートする。
論文 参考訳(メタデータ) (2024-01-21T09:51:45Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - VeriDIP: Verifying Ownership of Deep Neural Networks through Privacy
Leakage Fingerprints [16.564206424838485]
マシンラーニング・アズ・ア・サービスへのデプロイは、モデルプラジャリズムを引き起こし、著作権侵害につながる。
本稿では,モデルの知的特性を検証する VeriDIP という新しいオーナシップテスト手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T01:58:12Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - FedRight: An Effective Model Copyright Protection for Federated Learning [3.387494280613737]
フェデレートラーニング(FL)はモデルトレーニングを実装し、一方でローカルデータのプライバシを保護する。
FLの著作権保護の問題を初めて定式化した。
我々はモデル指紋に基づくモデル著作権を保護するためにFedRightを提案する。
論文 参考訳(メタデータ) (2023-03-18T11:47:54Z) - Are You Stealing My Model? Sample Correlation for Fingerprinting Deep
Neural Networks [86.55317144826179]
従来の方法は、常にモデル指紋として転送可能な敵の例を利用する。
本稿では,SAmple correlation (SAC) に基づく新しいモデル盗難検出手法を提案する。
SACは、敵の訓練や移動学習を含む様々なモデル盗難攻撃をうまく防いでいる。
論文 参考訳(メタデータ) (2022-10-21T02:07:50Z) - Fingerprinting Deep Neural Networks Globally via Universal Adversarial
Perturbations [22.89321897726347]
本稿では,被害者モデルから被疑者モデルが盗まれたかどうかをサービス提供者が検証できるようにする,新しい,実用的なメカニズムを提案する。
我々のフレームワークは、容疑者モデルの指紋が20ドル以内で、信頼度99.99 %のモデルIP侵害を検出することができる。
論文 参考訳(メタデータ) (2022-02-17T11:29:50Z) - Defending against Model Stealing via Verifying Embedded External
Features [90.29429679125508]
トレーニングサンプルがなく、モデルパラメータや構造にアクセスできない場合でも、敵はデプロイされたモデルを盗むことができる。
我々は、不審なモデルがディフェンダー特定遠近法の特徴の知識を含んでいるかどうかを検証することによって、他の角度からの防御を探索する。
本手法は, 複数段階の盗難処理によって盗難モデルが得られた場合でも, 同時に異なる種類の盗難モデルを検出するのに有効である。
論文 参考訳(メタデータ) (2021-12-07T03:51:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。