論文の概要: EncryIP: A Practical Encryption-Based Framework for Model Intellectual
Property Protection
- arxiv url: http://arxiv.org/abs/2312.12049v1
- Date: Tue, 19 Dec 2023 11:11:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 15:48:09.710605
- Title: EncryIP: A Practical Encryption-Based Framework for Model Intellectual
Property Protection
- Title(参考訳): EncryIP: モデル知的財産保護のための実用的な暗号化ベースのフレームワーク
- Authors: Xin Mu, Yu Wang, Zhengan Huang, Junzuo Lai, Yehong Zhang, Hui Wang,
Yue Yu
- Abstract要約: 本稿では,TextitEncryIPという,実用的な暗号化ベースのフレームワークを紹介する。
公開鍵暗号スキームをモデル学習プロセスにシームレスに統合する。
これは、トレーニングされた保護されたモデルと、許可されていないMLモデルの拡散を効率的に検出する双方において、優れた効果を示す。
- 参考スコア(独自算出の注目度): 17.655627250882805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the rapidly growing digital economy, protecting intellectual property (IP)
associated with digital products has become increasingly important. Within this
context, machine learning (ML) models, being highly valuable digital assets,
have gained significant attention for IP protection. This paper introduces a
practical encryption-based framework called \textit{EncryIP}, which seamlessly
integrates a public-key encryption scheme into the model learning process. This
approach enables the protected model to generate randomized and confused
labels, ensuring that only individuals with accurate secret keys, signifying
authorized users, can decrypt and reveal authentic labels. Importantly, the
proposed framework not only facilitates the protected model to multiple
authorized users without requiring repetitive training of the original ML model
with IP protection methods but also maintains the model's performance without
compromising its accuracy. Compared to existing methods like watermark-based,
trigger-based, and passport-based approaches, \textit{EncryIP} demonstrates
superior effectiveness in both training protected models and efficiently
detecting the unauthorized spread of ML models.
- Abstract(参考訳): 急速に成長するデジタル経済では、デジタル製品に関連する知的財産権(IP)の保護がますます重要になっている。
この状況の中で、非常に価値の高いデジタル資産である機械学習(ML)モデルは、IP保護に大きな注目を集めている。
本稿では,公開鍵暗号方式をモデル学習プロセスにシームレスに統合した,実践的な暗号ベースのフレームワークである \textit{encryip} を提案する。
このアプローチにより、保護されたモデルはランダム化され、混乱したラベルを生成することができ、正確な秘密鍵を持つ個人だけが、認証されたユーザを識別し、真正なラベルを明らかにすることができる。
重要なことは、提案フレームワークは、元のMLモデルのIP保護手法による反復的なトレーニングを必要とせずに、保護されたモデルを複数の認証ユーザに対して促進するだけでなく、その精度を損なうことなく、モデルの性能を維持することである。
透かしベース,トリガベース,パスポートベースといった既存の手法と比較して, \textit{EncryIP} はトレーニング保護モデルともに優れた有効性を示し, MLモデルの不正な拡散を効率的に検出する。
関連論文リスト
- MAP: MAsk-Pruning for Source-Free Model Intellectual Property Protection [18.99205251538783]
MAsk Pruning (MAP) は、ターゲット関連パラメータをよく訓練されたモデルで探索・解析するためのフレームワークである。
MAPはソースモデルを凍結し、ターゲット固有のバイナリマスクを学び、不正なデータの使用を防止する。
大規模な実験により、MAPは新たな最先端のパフォーマンスをもたらすことが示されている。
論文 参考訳(メタデータ) (2024-03-07T02:10:59Z) - Instructional Fingerprinting of Large Language Models [61.16480641024264]
本稿では,非常に軽量なインストラクションチューニングの一形態として,Large Language Model (LLM) の指紋認証に関する実験的検討を行う。
11個の LLM 実験の結果,このアプローチは軽量であり,モデルの正常な挙動には影響しないことがわかった。
また、パブリッシャーの誇張を防ぎ、指紋の推測やパラメータ効率のトレーニングに対する堅牢性を維持し、MITライセンスのような多段階の指紋認証をサポートする。
論文 参考訳(メタデータ) (2024-01-21T09:51:45Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Protecting Semantic Segmentation Models by Using Block-wise Image
Encryption with Secret Key from Unauthorized Access [13.106063755117399]
秘密鍵を用いたブロックワイズ変換を利用して,セマンティックセグメンテーションモデルを不正アクセスから保護することを提案する。
実験の結果,提案手法により,適切なキーを持つ適切なユーザに対して,モデルにフル容量でアクセスし,不正ユーザの性能を低下させることができることがわかった。
論文 参考訳(メタデータ) (2021-07-20T09:31:15Z) - A Protection Method of Trained CNN Model with Secret Key from
Unauthorized Access [15.483078145498085]
本稿では,秘密鍵セットを用いて畳み込みニューラルネットワーク(CNN)モデルを保護する新しい手法を提案する。
本手法は,著作権侵害から保護するだけでなく,モデルの機能も不正アクセスから保護することができる。
論文 参考訳(メタデータ) (2021-05-31T07:37:33Z) - Deep Model Intellectual Property Protection via Deep Watermarking [122.87871873450014]
ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T18:58:21Z) - Transfer Learning-Based Model Protection With Secret Key [15.483078145498085]
トレーニングを受けたモデルを秘密鍵で保護する新しい方法を提案する。
ImageNetデータセットを用いた実験では、保護されたモデルのパフォーマンスが、正しいキーが与えられたときに保護されていないモデルに近いことが示された。
論文 参考訳(メタデータ) (2021-03-05T08:12:11Z) - Passport-aware Normalization for Deep Model Protection [122.61289882357022]
深層学習モデルのためのパスポート対応正規化定式化を提案する。
IP保護のために別のパスポート対応ブランチを追加する必要がある。
微調整やモデル圧縮といった一般的な攻撃技術だけでなく、あいまいな攻撃にも堅牢であることが示されている。
論文 参考訳(メタデータ) (2020-10-29T17:57:12Z) - Training DNN Model with Secret Key for Model Protection [17.551718914117917]
本稿では,ブロックワイズ画素シャッフルと秘密鍵を前処理技術として用いた画像入力によるモデル保護手法を提案する。
実験の結果,キーが正しい場合,保護モデルの性能は非保護モデルに近いことがわかった。
論文 参考訳(メタデータ) (2020-08-06T04:25:59Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。