論文の概要: Passport-aware Normalization for Deep Model Protection
- arxiv url: http://arxiv.org/abs/2010.15824v2
- Date: Tue, 3 Nov 2020 16:19:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 23:12:48.006545
- Title: Passport-aware Normalization for Deep Model Protection
- Title(参考訳): 深部モデル保護のためのパスポート対応正規化
- Authors: Jie Zhang and Dongdong Chen and Jing Liao and Weiming Zhang and Gang
Hua and Nenghai Yu
- Abstract要約: 深層学習モデルのためのパスポート対応正規化定式化を提案する。
IP保護のために別のパスポート対応ブランチを追加する必要がある。
微調整やモデル圧縮といった一般的な攻撃技術だけでなく、あいまいな攻撃にも堅牢であることが示されている。
- 参考スコア(独自算出の注目度): 122.61289882357022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite tremendous success in many application scenarios, deep learning faces
serious intellectual property (IP) infringement threats. Considering the cost
of designing and training a good model, infringements will significantly
infringe the interests of the original model owner. Recently, many impressive
works have emerged for deep model IP protection. However, they either are
vulnerable to ambiguity attacks, or require changes in the target network
structure by replacing its original normalization layers and hence cause
significant performance drops. To this end, we propose a new passport-aware
normalization formulation, which is generally applicable to most existing
normalization layers and only needs to add another passport-aware branch for IP
protection. This new branch is jointly trained with the target model but
discarded in the inference stage. Therefore it causes no structure change in
the target model. Only when the model IP is suspected to be stolen by someone,
the private passport-aware branch is added back for ownership verification.
Through extensive experiments, we verify its effectiveness in both image and 3D
point recognition models. It is demonstrated to be robust not only to common
attack techniques like fine-tuning and model compression, but also to ambiguity
attacks. By further combining it with trigger-set based methods, both black-box
and white-box verification can be achieved for enhanced security of deep
learning models deployed in real systems. Code can be found at
https://github.com/ZJZAC/Passport-aware-Normalization.
- Abstract(参考訳): 多くのアプリケーションシナリオで非常に成功したが、ディープラーニングは深刻な知的財産権(IP)侵害の脅威に直面している。
優れたモデルの設計とトレーニングのコストを考えると、侵害はオリジナルのモデル所有者の利益を著しく侵害する。
近年、ディープモデルIP保護のための多くの素晴らしい作品が出現している。
しかし、あいまいな攻撃に弱いか、あるいは元の正規化層を置き換えることでターゲットのネットワーク構造を変更する必要があるため、パフォーマンスが大幅に低下する。
そこで本研究では,IP保護のためのパスポート対応分岐を新たに追加するだけで,既存のほとんどの正規化層に適用できるパスポート対応正規化定式化を提案する。
この新しいブランチは、ターゲットモデルと共同でトレーニングされるが、推論段階で破棄される。
そのため、ターゲットモデルに構造変化は起こらない。
モデルIPが誰かによって盗まれたと疑われた場合にのみ、プライベートパスポート対応ブランチが所有者認証のために追加される。
広範にわたる実験により,画像および3次元点認識モデルの有効性を検証する。
微調整やモデル圧縮といった一般的な攻撃技術だけでなく、あいまいな攻撃にも堅牢であることが示されている。
さらにトリガセットベースの手法と組み合わせることで、実際のシステムにデプロイされたディープラーニングモデルのセキュリティを高めるために、ブラックボックスとホワイトボックスの検証が可能である。
コードはhttps://github.com/ZJZAC/Passport-aware-Normalizationにある。
関連論文リスト
- IDEA: An Inverse Domain Expert Adaptation Based Active DNN IP Protection Method [8.717704777664604]
ディープニューラルネットワーク(DNN)モデルの非合法的な複製、配布、導出は、経済的損失、評判のダメージ、さらにはプライバシー侵害にも影響を及ぼす可能性がある。
提案するIDEAは、アクティブな認証とソーストレーサビリティを備えた、逆ドメインエキスパート適応に基づくプロアクティブDNNIP保護手法である。
5つのデータセットと4つのDNNモデル上でIDEAを広範囲に評価し、認証制御、原因追跡成功率、各種攻撃に対する効果を実証した。
論文 参考訳(メタデータ) (2024-09-29T09:34:33Z) - Stealth edits to large language models [76.53356051271014]
モデルの編集可能性を評価するために、1つのメトリックを使用できることを示す。
また、ステルス攻撃に対する言語モデルの脆弱性を明らかにします。
論文 参考訳(メタデータ) (2024-06-18T14:43:18Z) - Steganographic Passport: An Owner and User Verifiable Credential for Deep Model IP Protection Without Retraining [9.617679554145301]
ライセンス・ツー・ユースとオーナシップの検証のためにモデル機能を難なくするパスポートベースの現在の手法は、キャパシティと品質の制約に悩まされている。
本稿では,ステガノグラフィ・パスポートを提案する。ステガノグラフィ・パスポートは,ステガノグラフィ・ネットワークを用いて,ライセンス・ツー・ユースをオーナシップの検証から切り離す。
誘導されたユーザ側パスポートから所有者側パスポートが露出することを避けるために、不可逆かつ耐衝突性ハッシュ関数が使用される。
論文 参考訳(メタデータ) (2024-04-03T17:44:02Z) - EncryIP: A Practical Encryption-Based Framework for Model Intellectual
Property Protection [17.655627250882805]
本稿では,TextitEncryIPという,実用的な暗号化ベースのフレームワークを紹介する。
公開鍵暗号スキームをモデル学習プロセスにシームレスに統合する。
これは、トレーニングされた保護されたモデルと、許可されていないMLモデルの拡散を効率的に検出する双方において、優れた効果を示す。
論文 参考訳(メタデータ) (2023-12-19T11:11:03Z) - Physical Invisible Backdoor Based on Camera Imaging [32.30547033643063]
現在のバックドア攻撃では、クリーンな画像のピクセルを変更する必要がある。
本稿では,自然画像の画素の変化を伴わずに,カメラ画像に基づく新しい物理見えないバックドアを提案する。
論文 参考訳(メタデータ) (2023-09-14T04:58:06Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Deep Model Intellectual Property Protection via Deep Watermarking [122.87871873450014]
ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T18:58:21Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。