論文の概要: Training DNN Model with Secret Key for Model Protection
- arxiv url: http://arxiv.org/abs/2008.02450v1
- Date: Thu, 6 Aug 2020 04:25:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 06:53:29.191713
- Title: Training DNN Model with Secret Key for Model Protection
- Title(参考訳): モデル保護のための秘密鍵付きdnnモデルのトレーニング
- Authors: MaungMaung AprilPyone and Hitoshi Kiya
- Abstract要約: 本稿では,ブロックワイズ画素シャッフルと秘密鍵を前処理技術として用いた画像入力によるモデル保護手法を提案する。
実験の結果,キーが正しい場合,保護モデルの性能は非保護モデルに近いことがわかった。
- 参考スコア(独自算出の注目度): 17.551718914117917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a model protection method by using block-wise pixel
shuffling with a secret key as a preprocessing technique to input images for
the first time. The protected model is built by training with such preprocessed
images. Experiment results show that the performance of the protected model is
close to that of non-protected models when the key is correct, while the
accuracy is severely dropped when an incorrect key is given, and the proposed
model protection is robust against not only brute-force attacks but also
fine-tuning attacks, while maintaining almost the same performance accuracy as
that of using a non-protected model.
- Abstract(参考訳): 本稿では,まず,秘密鍵を用いたブロックワイズ画素シャッフルを画像入力のための前処理手法として用いたモデル保護手法を提案する。
保護されたモデルは、事前処理された画像でトレーニングすることで構築される。
実験の結果,キーが正しい場合,保護されたモデルの性能は非保護モデルに近いが,不正なキーが与えられた場合の精度は著しく低下し,提案モデル保護は非保護モデルとほぼ同等の性能を維持しつつ,ブルートフォース攻撃だけでなく微調整攻撃に対しても頑健であることがわかった。
関連論文リスト
- What Makes and Breaks Safety Fine-tuning? A Mechanistic Study [64.9691741899956]
安全性の微調整は、大規模な言語モデル(LLM)を、安全なデプロイメントのための人間の好みに合わせるのに役立つ。
安全でない入力の健全な側面をキャプチャする合成データ生成フレームワークを設計する。
これを用いて,3つのよく知られた安全微調整手法について検討する。
論文 参考訳(メタデータ) (2024-07-14T16:12:57Z) - ModelLock: Locking Your Model With a Spell [90.36433941408536]
ModelLockと呼ばれる拡散ベースのフレームワークは、テキストガイドによる画像編集を探求し、トレーニングデータをユニークなスタイルに変換するか、バックグラウンドで新しいオブジェクトを追加する。
このデータセットに微調整されたモデルはロックされ、キープロンプトによってのみアンロックされる。
画像分類とセグメンテーションの両方のタスクについて広範な実験を行い、ModelLockが期待する性能を著しく低下させることなく、効果的に細調整されたモデルをロックできることを示します。
論文 参考訳(メタデータ) (2024-05-25T15:52:34Z) - Pre-trained Model Guided Fine-Tuning for Zero-Shot Adversarial Robustness [52.9493817508055]
我々は,モデルがゼロショットの逆方向のロバスト性を高めるために,事前訓練されたモデル誘導逆方向の微調整(PMG-AFT)を提案する。
私たちのアプローチは、平均8.72%のクリーンな精度を継続的に改善します。
論文 参考訳(メタデータ) (2024-01-09T04:33:03Z) - An Encryption Method of ConvMixer Models without Performance Degradation [14.505867475659276]
本稿では秘密鍵を用いたConvMixerモデルの暗号化手法を提案する。
本手法の有効性を,分類精度とモデル保護の観点から評価した。
論文 参考訳(メタデータ) (2022-07-25T07:09:16Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Membership Privacy Protection for Image Translation Models via
Adversarial Knowledge Distillation [60.20442796180881]
画像から画像への変換モデルは、メンバーシップ推論攻撃(MIA)に対して脆弱である
本稿では,画像から画像への変換モデルに対するMIAに対する防御手法として,逆知識蒸留(AKD)を提案する。
画像から画像への変換モデルの実験を行い、AKDが最先端のユーティリティ・プライバシトレードオフを実現することを示す。
論文 参考訳(メタデータ) (2022-03-10T07:44:18Z) - A Protection Method of Trained CNN Model Using Feature Maps Transformed
With Secret Key From Unauthorized Access [15.483078145498085]
本稿では,秘密鍵を用いた畳み込みニューラルネットワーク(CNN)のモデル保護手法を提案する。
提案手法は秘密鍵を用いたブロックワイズ変換をネットワーク内の特徴マップに適用する。
論文 参考訳(メタデータ) (2021-09-01T07:47:05Z) - Protecting Semantic Segmentation Models by Using Block-wise Image
Encryption with Secret Key from Unauthorized Access [13.106063755117399]
秘密鍵を用いたブロックワイズ変換を利用して,セマンティックセグメンテーションモデルを不正アクセスから保護することを提案する。
実験の結果,提案手法により,適切なキーを持つ適切なユーザに対して,モデルにフル容量でアクセスし,不正ユーザの性能を低下させることができることがわかった。
論文 参考訳(メタデータ) (2021-07-20T09:31:15Z) - A Protection Method of Trained CNN Model with Secret Key from
Unauthorized Access [15.483078145498085]
本稿では,秘密鍵セットを用いて畳み込みニューラルネットワーク(CNN)モデルを保護する新しい手法を提案する。
本手法は,著作権侵害から保護するだけでなく,モデルの機能も不正アクセスから保護することができる。
論文 参考訳(メタデータ) (2021-05-31T07:37:33Z) - Transfer Learning-Based Model Protection With Secret Key [15.483078145498085]
トレーニングを受けたモデルを秘密鍵で保護する新しい方法を提案する。
ImageNetデータセットを用いた実験では、保護されたモデルのパフォーマンスが、正しいキーが与えられたときに保護されていないモデルに近いことが示された。
論文 参考訳(メタデータ) (2021-03-05T08:12:11Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。