論文の概要: Training DNN Model with Secret Key for Model Protection
- arxiv url: http://arxiv.org/abs/2008.02450v1
- Date: Thu, 6 Aug 2020 04:25:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 06:53:29.191713
- Title: Training DNN Model with Secret Key for Model Protection
- Title(参考訳): モデル保護のための秘密鍵付きdnnモデルのトレーニング
- Authors: MaungMaung AprilPyone and Hitoshi Kiya
- Abstract要約: 本稿では,ブロックワイズ画素シャッフルと秘密鍵を前処理技術として用いた画像入力によるモデル保護手法を提案する。
実験の結果,キーが正しい場合,保護モデルの性能は非保護モデルに近いことがわかった。
- 参考スコア(独自算出の注目度): 17.551718914117917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a model protection method by using block-wise pixel
shuffling with a secret key as a preprocessing technique to input images for
the first time. The protected model is built by training with such preprocessed
images. Experiment results show that the performance of the protected model is
close to that of non-protected models when the key is correct, while the
accuracy is severely dropped when an incorrect key is given, and the proposed
model protection is robust against not only brute-force attacks but also
fine-tuning attacks, while maintaining almost the same performance accuracy as
that of using a non-protected model.
- Abstract(参考訳): 本稿では,まず,秘密鍵を用いたブロックワイズ画素シャッフルを画像入力のための前処理手法として用いたモデル保護手法を提案する。
保護されたモデルは、事前処理された画像でトレーニングすることで構築される。
実験の結果,キーが正しい場合,保護されたモデルの性能は非保護モデルに近いが,不正なキーが与えられた場合の精度は著しく低下し,提案モデル保護は非保護モデルとほぼ同等の性能を維持しつつ,ブルートフォース攻撃だけでなく微調整攻撃に対しても頑健であることがわかった。
関連論文リスト
- Recovering the Pre-Fine-Tuning Weights of Generative Models [48.996830072800336]
そこで本研究では,いくつかの低ランク(LoRA)微調整モデルを用いて,プレファインチューニングモデルの重みを復元する手法を提案する。
このアプローチでは、パーソナライズされたStable DiffusionやアライメントされたMistralといった大規模モデルに対して、この新しい脆弱性を活用しています。
論文 参考訳(メタデータ) (2024-02-15T18:59:02Z) - Pre-trained Model Guided Fine-Tuning for Zero-Shot Adversarial
Robustness [57.843395705105614]
我々は, モデルがゼロショットの対角強靭性を高めるために, 事前訓練されたモデル誘導適応調整(PMG-AFT)を提案する。
PMG-AFTは最先端の手法よりも優れており、トップ1の精度は平均4.99%向上した。
論文 参考訳(メタデータ) (2024-01-09T04:33:03Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - An Encryption Method of ConvMixer Models without Performance Degradation [14.505867475659276]
本稿では秘密鍵を用いたConvMixerモデルの暗号化手法を提案する。
本手法の有効性を,分類精度とモデル保護の観点から評価した。
論文 参考訳(メタデータ) (2022-07-25T07:09:16Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Membership Privacy Protection for Image Translation Models via
Adversarial Knowledge Distillation [60.20442796180881]
画像から画像への変換モデルは、メンバーシップ推論攻撃(MIA)に対して脆弱である
本稿では,画像から画像への変換モデルに対するMIAに対する防御手法として,逆知識蒸留(AKD)を提案する。
画像から画像への変換モデルの実験を行い、AKDが最先端のユーティリティ・プライバシトレードオフを実現することを示す。
論文 参考訳(メタデータ) (2022-03-10T07:44:18Z) - A Protection Method of Trained CNN Model Using Feature Maps Transformed
With Secret Key From Unauthorized Access [15.483078145498085]
本稿では,秘密鍵を用いた畳み込みニューラルネットワーク(CNN)のモデル保護手法を提案する。
提案手法は秘密鍵を用いたブロックワイズ変換をネットワーク内の特徴マップに適用する。
論文 参考訳(メタデータ) (2021-09-01T07:47:05Z) - Protecting Semantic Segmentation Models by Using Block-wise Image
Encryption with Secret Key from Unauthorized Access [13.106063755117399]
秘密鍵を用いたブロックワイズ変換を利用して,セマンティックセグメンテーションモデルを不正アクセスから保護することを提案する。
実験の結果,提案手法により,適切なキーを持つ適切なユーザに対して,モデルにフル容量でアクセスし,不正ユーザの性能を低下させることができることがわかった。
論文 参考訳(メタデータ) (2021-07-20T09:31:15Z) - A Protection Method of Trained CNN Model with Secret Key from
Unauthorized Access [15.483078145498085]
本稿では,秘密鍵セットを用いて畳み込みニューラルネットワーク(CNN)モデルを保護する新しい手法を提案する。
本手法は,著作権侵害から保護するだけでなく,モデルの機能も不正アクセスから保護することができる。
論文 参考訳(メタデータ) (2021-05-31T07:37:33Z) - Transfer Learning-Based Model Protection With Secret Key [15.483078145498085]
トレーニングを受けたモデルを秘密鍵で保護する新しい方法を提案する。
ImageNetデータセットを用いた実験では、保護されたモデルのパフォーマンスが、正しいキーが与えられたときに保護されていないモデルに近いことが示された。
論文 参考訳(メタデータ) (2021-03-05T08:12:11Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。