論文の概要: AdvParams: An Active DNN Intellectual Property Protection Technique via
Adversarial Perturbation Based Parameter Encryption
- arxiv url: http://arxiv.org/abs/2105.13697v1
- Date: Fri, 28 May 2021 09:42:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-31 13:26:11.607486
- Title: AdvParams: An Active DNN Intellectual Property Protection Technique via
Adversarial Perturbation Based Parameter Encryption
- Title(参考訳): AdvParams: 逆摂動に基づくパラメータ暗号化によるアクティブDNN知的財産保護技術
- Authors: Mingfu Xue, Zhiyu Wu, Jian Wang, Yushu Zhang, Weiqiang Liu
- Abstract要約: 本稿では,DNNIPを侵害から積極的に保護するための効果的な枠組みを提案する。
具体的には、DNNモデルのパラメータを、よく構築された対向的摂動で摂動することで暗号化する。
暗号化後、暗号化されたパラメータの位置と追加された敵の摂動の値が秘密鍵となる。
- 参考スコア(独自算出の注目度): 10.223780756303196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A well-trained DNN model can be regarded as an intellectual property (IP) of
the model owner. To date, many DNN IP protection methods have been proposed,
but most of them are watermarking based verification methods where model owners
can only verify their ownership passively after the copyright of DNN models has
been infringed. In this paper, we propose an effective framework to actively
protect the DNN IP from infringement. Specifically, we encrypt the DNN model's
parameters by perturbing them with well-crafted adversarial perturbations. With
the encrypted parameters, the accuracy of the DNN model drops significantly,
which can prevent malicious infringers from using the model. After the
encryption, the positions of encrypted parameters and the values of the added
adversarial perturbations form a secret key. Authorized user can use the secret
key to decrypt the model. Compared with the watermarking methods which only
passively verify the ownership after the infringement occurs, the proposed
method can prevent infringement in advance. Moreover, compared with most of the
existing active DNN IP protection methods, the proposed method does not require
additional training process of the model, which introduces low computational
overhead. Experimental results show that, after the encryption, the test
accuracy of the model drops by 80.65%, 81.16%, and 87.91% on Fashion-MNIST,
CIFAR-10, and GTSRB, respectively. Moreover, the proposed method only needs to
encrypt an extremely low number of parameters, and the proportion of the
encrypted parameters of all the model's parameters is as low as 0.000205%. The
experimental results also indicate that, the proposed method is robust against
model fine-tuning attack and model pruning attack. Moreover, for the adaptive
attack where attackers know the detailed steps of the proposed method, the
proposed method is also demonstrated to be robust.
- Abstract(参考訳): 十分に訓練されたDNNモデルは、モデル所有者の知的財産(IP)と見なすことができる。
これまで多くのDNN IP保護手法が提案されてきたが、そのほとんどはウォーターマークに基づく検証手法であり、モデル所有者はDNNモデルの著作権が侵害された後のみ受動的に所有権を検証できる。
本稿では,DNNIPを侵害から積極的に保護するための効果的な枠組みを提案する。
具体的には、dnnモデルのパラメータをよく作られた逆摂動で摂動させることで暗号化する。
暗号化されたパラメータでは、DNNモデルの精度が大幅に低下し、悪意のある侵害者がモデルを使用するのを防ぐことができる。
暗号化後、暗号化されたパラメータの位置と追加された逆摂動の値が秘密鍵を形成する。
認証されたユーザは、秘密鍵を使ってモデルを復号することができる。
侵害後の所有権を受動的に検証する透かし方式と比較して, 提案手法は事前に侵害を防止することができる。
さらに,既存のアクティブdnnip保護手法のほとんどと比較して,提案手法では,計算オーバーヘッドの低減を実現するため,モデルのさらなるトレーニングプロセスは不要である。
実験の結果、暗号化後、モデルのテスト精度は80.65%、81.16%、Fashion-MNIST、CIFAR-10、GTSRBで87.91%低下した。
さらに、提案手法は、非常に少ない数のパラメータを暗号化するだけで、全てのモデルのパラメータの暗号化されたパラメータの割合は、0.000205%以下である。
実験結果は,提案手法がモデル微調整攻撃とモデル刈り込み攻撃に対して頑健であることを示唆する。
さらに,攻撃者が提案手法の詳細なステップを把握できる適応攻撃においても,提案手法は堅牢であることを示す。
関連論文リスト
- IDEA: An Inverse Domain Expert Adaptation Based Active DNN IP Protection Method [8.717704777664604]
ディープニューラルネットワーク(DNN)モデルの非合法的な複製、配布、導出は、経済的損失、評判のダメージ、さらにはプライバシー侵害にも影響を及ぼす可能性がある。
提案するIDEAは、アクティブな認証とソーストレーサビリティを備えた、逆ドメインエキスパート適応に基づくプロアクティブDNNIP保護手法である。
5つのデータセットと4つのDNNモデル上でIDEAを広範囲に評価し、認証制御、原因追跡成功率、各種攻撃に対する効果を実証した。
論文 参考訳(メタデータ) (2024-09-29T09:34:33Z) - Covert Malicious Finetuning: Challenges in Safeguarding LLM Adaptation [86.05704141217036]
Black-boxファインタニングは、最先端の言語モデルをユーザのニーズに適応するための、新たなインターフェースである。
本研究では,検出を回避しながら,モデル安全性を損なう手法である隠れ悪意のある微調整を導入する。
論文 参考訳(メタデータ) (2024-06-28T17:05:46Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Reversible Quantization Index Modulation for Static Deep Neural Network
Watermarking [57.96787187733302]
可逆的データ隠蔽法(RDH)は潜在的な解決策を提供するが、既存のアプローチはユーザビリティ、キャパシティ、忠実性の面で弱点に悩まされている。
量子化指数変調(QIM)を用いたRDHに基づく静的DNN透かし手法を提案する。
提案手法は,透かし埋め込みのための1次元量化器に基づく新しい手法を取り入れたものである。
論文 参考訳(メタデータ) (2023-05-29T04:39:17Z) - NNSplitter: An Active Defense Solution for DNN Model via Automated
Weight Obfuscation [26.12728348169104]
ディープニューラルネットワーク(DNN)モデルは、透かしのような技術によって保護されている。
本研究では,NNSplitterというアクティブモデルIP保護方式を提案する。
NNSplitterは、重量難読化による性能の悪い難読化モデルとモデルシークレットの2つに分割することで、モデルを積極的に保護する。
論文 参考訳(メタデータ) (2023-04-28T21:27:16Z) - InFIP: An Explainable DNN Intellectual Property Protection Method based
on Intrinsic Features [12.037142903022891]
本稿では,説明可能な人工知能に基づくディープニューラルネットワーク(DNN)の解釈可能な知的財産保護手法を提案する。
提案手法はDNNモデルを変更せず,オーナシップ検証の決定は解釈可能である。
実験結果から,指紋はモデルの所有権検証に有効であることが示された。
論文 参考訳(メタデータ) (2022-10-14T03:12:36Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Verifying Integrity of Deep Ensemble Models by Lossless Black-box
Watermarking with Sensitive Samples [17.881686153284267]
深層アンサンブルモデル(DEM)のための新しいブラックボックス透かし法を提案する。
提案手法では,実世界のDEM攻撃を模倣して,一定数の機密サンプルを慎重に選択する。
これらの細心の注意深いサンプルからターゲットDEMの予測結果を解析することにより、ターゲットDEMの完全性を検証することができる。
論文 参考訳(メタデータ) (2022-05-09T09:40:20Z) - Probabilistic Selective Encryption of Convolutional Neural Networks for
Hierarchical Services [13.643603852209091]
我々は,CNNモデルを不正アクセスから保護するために,選択的暗号化(SE)アルゴリズムを提案する。
提案した確率的選択戦略(PSS)を用いて重要なモデルパラメータを選択する。
次に、DPRM(Distributed Preserving Random Mask)と呼ばれる設計された暗号化手法で、最も重要なパラメータを暗号化する。
論文 参考訳(メタデータ) (2021-05-26T06:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。