論文の概要: Model Lock: Locking Your Model With a Spell
- arxiv url: http://arxiv.org/abs/2405.16285v2
- Date: Sat, 28 Sep 2024 11:29:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 21:59:21.162578
- Title: Model Lock: Locking Your Model With a Spell
- Title(参考訳): モデルロック:スペルでモデルをロックする
- Authors: Yifeng Gao, Yuhua Sun, Xingjun Ma, Zuxuan Wu, Yu-Gang Jiang,
- Abstract要約: ModelLockと呼ばれる拡散ベースのフレームワークは、テキストガイドによる画像編集を探求し、トレーニングデータをユニークなスタイルに変換するか、バックグラウンドで新しいオブジェクトを追加する。
このデータセットに微調整されたモデルはロックされ、キープロンプトによってのみアンロックされる。
画像分類とセグメンテーションの両方のタスクについて広範な実験を行い、ModelLockが期待する性能を著しく低下させることなく、効果的に細調整されたモデルをロックできることを示します。
- 参考スコア(独自算出の注目度): 90.36433941408536
- License:
- Abstract: This paper presents a novel model protection paradigm ModelLock that locks (destroys) the performance of a model on normal clean data so as to make it unusable or unextractable without the right key. Specifically, we proposed a diffusion-based framework dubbed ModelLock that explores text-guided image editing to transform the training data into unique styles or add new objects in the background. A model finetuned on this edited dataset will be locked and can only be unlocked by the key prompt, i.e., the text prompt used to transform the data. We conduct extensive experiments on both image classification and segmentation tasks, and show that 1) ModelLock can effectively lock the finetuned models without significantly reducing the expected performance, and more importantly, 2) the locked model cannot be easily unlocked without knowing both the key prompt and the diffusion model. Our work opens up a new direction for intellectual property protection of private models.
- Abstract(参考訳): 本稿では,モデル保護パラダイムであるModelLockを提案する。これは,モデルの性能を正常なクリーンデータにロックし,適切なキーを使わずに使用不能あるいは抽出不能にする。
具体的には、テキスト誘導画像編集を探索し、トレーニングデータをユニークなスタイルにしたり、新しいオブジェクトをバックグラウンドで追加したりする拡散ベースのフレームワークModelLockを提案する。
このデータセットに微調整されたモデルはロックされ、キープロンプトによってのみアンロックされる。
画像分類とセグメンテーションの両タスクについて広範な実験を行い、それを実証する。
1) ModelLockは、期待するパフォーマンスを著しく低下させることなく、効果的に微調整されたモデルをロックできます。
2)ロックされたモデルはキープロンプトと拡散モデルの両方を知ることなく簡単にロック解除できない。
我々の研究は、プライベートモデルの知的財産権保護のための新しい方向性を開く。
関連論文リスト
- Stealth edits to large language models [76.53356051271014]
モデルの編集可能性を評価するために、1つのメトリックを使用できることを示す。
また、ステルス攻撃に対する言語モデルの脆弱性を明らかにします。
論文 参考訳(メタデータ) (2024-06-18T14:43:18Z) - Towards Few-Call Model Stealing via Active Self-Paced Knowledge
Distillation and Diffusion-Based Image Generation [33.60710287553274]
そこで本研究では,ブラックボックスの分類モデルを,トレーニングデータやアーキテクチャ,重みなどにアクセスせずにコピーすることを提案する。
蒸留時にプロキシデータを最大限に活用するために,新たなアクティブなセルフペース学習フレームワークを採用している。
2つのデータセットに対する実験結果から,マルチコールモデル抽出シナリオにおける2つの最先端手法に対するフレームワークの優位性が確認された。
論文 参考訳(メタデータ) (2023-09-29T19:09:27Z) - Are You Stealing My Model? Sample Correlation for Fingerprinting Deep
Neural Networks [86.55317144826179]
従来の方法は、常にモデル指紋として転送可能な敵の例を利用する。
本稿では,SAmple correlation (SAC) に基づく新しいモデル盗難検出手法を提案する。
SACは、敵の訓練や移動学習を含む様々なモデル盗難攻撃をうまく防いでいる。
論文 参考訳(メタデータ) (2022-10-21T02:07:50Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Defending against Model Stealing via Verifying Embedded External
Features [90.29429679125508]
トレーニングサンプルがなく、モデルパラメータや構造にアクセスできない場合でも、敵はデプロイされたモデルを盗むことができる。
我々は、不審なモデルがディフェンダー特定遠近法の特徴の知識を含んでいるかどうかを検証することによって、他の角度からの防御を探索する。
本手法は, 複数段階の盗難処理によって盗難モデルが得られた場合でも, 同時に異なる種類の盗難モデルを検出するのに有効である。
論文 参考訳(メタデータ) (2021-12-07T03:51:54Z) - A Protection Method of Trained CNN Model with Secret Key from
Unauthorized Access [15.483078145498085]
本稿では,秘密鍵セットを用いて畳み込みニューラルネットワーク(CNN)モデルを保護する新しい手法を提案する。
本手法は,著作権侵害から保護するだけでなく,モデルの機能も不正アクセスから保護することができる。
論文 参考訳(メタデータ) (2021-05-31T07:37:33Z) - Transfer Learning-Based Model Protection With Secret Key [15.483078145498085]
トレーニングを受けたモデルを秘密鍵で保護する新しい方法を提案する。
ImageNetデータセットを用いた実験では、保護されたモデルのパフォーマンスが、正しいキーが与えられたときに保護されていないモデルに近いことが示された。
論文 参考訳(メタデータ) (2021-03-05T08:12:11Z) - Training DNN Model with Secret Key for Model Protection [17.551718914117917]
本稿では,ブロックワイズ画素シャッフルと秘密鍵を前処理技術として用いた画像入力によるモデル保護手法を提案する。
実験の結果,キーが正しい場合,保護モデルの性能は非保護モデルに近いことがわかった。
論文 参考訳(メタデータ) (2020-08-06T04:25:59Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。