論文の概要: EncryIP: A Practical Encryption-Based Framework for Model Intellectual
Property Protection
- arxiv url: http://arxiv.org/abs/2312.12049v1
- Date: Tue, 19 Dec 2023 11:11:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 15:48:09.710605
- Title: EncryIP: A Practical Encryption-Based Framework for Model Intellectual
Property Protection
- Title(参考訳): EncryIP: モデル知的財産保護のための実用的な暗号化ベースのフレームワーク
- Authors: Xin Mu, Yu Wang, Zhengan Huang, Junzuo Lai, Yehong Zhang, Hui Wang,
Yue Yu
- Abstract要約: 本稿では,TextitEncryIPという,実用的な暗号化ベースのフレームワークを紹介する。
公開鍵暗号スキームをモデル学習プロセスにシームレスに統合する。
これは、トレーニングされた保護されたモデルと、許可されていないMLモデルの拡散を効率的に検出する双方において、優れた効果を示す。
- 参考スコア(独自算出の注目度): 17.655627250882805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the rapidly growing digital economy, protecting intellectual property (IP)
associated with digital products has become increasingly important. Within this
context, machine learning (ML) models, being highly valuable digital assets,
have gained significant attention for IP protection. This paper introduces a
practical encryption-based framework called \textit{EncryIP}, which seamlessly
integrates a public-key encryption scheme into the model learning process. This
approach enables the protected model to generate randomized and confused
labels, ensuring that only individuals with accurate secret keys, signifying
authorized users, can decrypt and reveal authentic labels. Importantly, the
proposed framework not only facilitates the protected model to multiple
authorized users without requiring repetitive training of the original ML model
with IP protection methods but also maintains the model's performance without
compromising its accuracy. Compared to existing methods like watermark-based,
trigger-based, and passport-based approaches, \textit{EncryIP} demonstrates
superior effectiveness in both training protected models and efficiently
detecting the unauthorized spread of ML models.
- Abstract(参考訳): 急速に成長するデジタル経済では、デジタル製品に関連する知的財産権(IP)の保護がますます重要になっている。
この状況の中で、非常に価値の高いデジタル資産である機械学習(ML)モデルは、IP保護に大きな注目を集めている。
本稿では,公開鍵暗号方式をモデル学習プロセスにシームレスに統合した,実践的な暗号ベースのフレームワークである \textit{encryip} を提案する。
このアプローチにより、保護されたモデルはランダム化され、混乱したラベルを生成することができ、正確な秘密鍵を持つ個人だけが、認証されたユーザを識別し、真正なラベルを明らかにすることができる。
重要なことは、提案フレームワークは、元のMLモデルのIP保護手法による反復的なトレーニングを必要とせずに、保護されたモデルを複数の認証ユーザに対して促進するだけでなく、その精度を損なうことなく、モデルの性能を維持することである。
透かしベース,トリガベース,パスポートベースといった既存の手法と比較して, \textit{EncryIP} はトレーニング保護モデルともに優れた有効性を示し, MLモデルの不正な拡散を効率的に検出する。
関連論文リスト
- SLIP: Securing LLMs IP Using Weights Decomposition [0.0]
大規模言語モデル(LLM)は、最近、アカデミックと産業の両方で広く採用されている。
これらのモデルが成長するにつれて、彼らは価値ある知的財産権(IP)となり、所有者による巨額の投資を反映している。
エッジ上のモデルのIPを保護する現在の方法は、実用性、精度の低下、要求に対する適合性の制限がある。
我々は,エッジデデプロイされたモデルを盗難から保護するために,SLIPという新しいハイブリッド推論アルゴリズムを導入する。
論文 参考訳(メタデータ) (2024-07-15T16:37:55Z) - ModelShield: Adaptive and Robust Watermark against Model Extraction Attack [58.46326901858431]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - Performance-lossless Black-box Model Watermarking [69.22653003059031]
本稿では,モデル知的財産権を保護するために,ブランチバックドアベースのモデル透かしプロトコルを提案する。
さらに,プロトコルに対する潜在的な脅威を分析し,言語モデルに対するセキュアで実現可能な透かしインスタンスを提供する。
論文 参考訳(メタデータ) (2023-12-11T16:14:04Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Protecting Semantic Segmentation Models by Using Block-wise Image
Encryption with Secret Key from Unauthorized Access [13.106063755117399]
秘密鍵を用いたブロックワイズ変換を利用して,セマンティックセグメンテーションモデルを不正アクセスから保護することを提案する。
実験の結果,提案手法により,適切なキーを持つ適切なユーザに対して,モデルにフル容量でアクセスし,不正ユーザの性能を低下させることができることがわかった。
論文 参考訳(メタデータ) (2021-07-20T09:31:15Z) - A Protection Method of Trained CNN Model with Secret Key from
Unauthorized Access [15.483078145498085]
本稿では,秘密鍵セットを用いて畳み込みニューラルネットワーク(CNN)モデルを保護する新しい手法を提案する。
本手法は,著作権侵害から保護するだけでなく,モデルの機能も不正アクセスから保護することができる。
論文 参考訳(メタデータ) (2021-05-31T07:37:33Z) - Passport-aware Normalization for Deep Model Protection [122.61289882357022]
深層学習モデルのためのパスポート対応正規化定式化を提案する。
IP保護のために別のパスポート対応ブランチを追加する必要がある。
微調整やモデル圧縮といった一般的な攻撃技術だけでなく、あいまいな攻撃にも堅牢であることが示されている。
論文 参考訳(メタデータ) (2020-10-29T17:57:12Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。