論文の概要: Transfer Learning-Based Model Protection With Secret Key
- arxiv url: http://arxiv.org/abs/2103.03525v1
- Date: Fri, 5 Mar 2021 08:12:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 14:47:18.591617
- Title: Transfer Learning-Based Model Protection With Secret Key
- Title(参考訳): 秘密鍵を用いた伝達学習に基づくモデル保護
- Authors: MaungMaung AprilPyone and Hitoshi Kiya
- Abstract要約: トレーニングを受けたモデルを秘密鍵で保護する新しい方法を提案する。
ImageNetデータセットを用いた実験では、保護されたモデルのパフォーマンスが、正しいキーが与えられたときに保護されていないモデルに近いことが示された。
- 参考スコア(独自算出の注目度): 15.483078145498085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel method for protecting trained models with a secret key so
that unauthorized users without the correct key cannot get the correct
inference. By taking advantage of transfer learning, the proposed method
enables us to train a large protected model like a model trained with ImageNet
by using a small subset of a training dataset. It utilizes a learnable
encryption step with a secret key to generate learnable transformed images.
Models with pre-trained weights are fine-tuned by using such transformed
images. In experiments with the ImageNet dataset, it is shown that the
performance of a protected model was close to that of a non-protected model
when the correct key was given, while the accuracy tremendously dropped when an
incorrect key was used. The protected model was also demonstrated to be robust
against key estimation attacks.
- Abstract(参考訳): 本論文では,正しい鍵のない不正使用者が正しい推論が得られないように,訓練済みモデルをシークレットキーで保護する新しい方法を提案する。
提案手法は,転送学習を活用することで,トレーニングデータセットの小さなサブセットを用いて,ImageNetで訓練されたモデルのような大規模保護モデルのトレーニングを可能にする。
学習可能な暗号化ステップと秘密鍵を利用し、学習可能な変換画像を生成する。
事前訓練された重みを持つモデルは、そのような変換画像を用いて微調整される。
ImageNetデータセットを用いた実験では、正しいキーが与えられたとき、保護されたモデルの性能が非保護されたモデルに近いことが示され、不正確なキーが使われたとき、精度が大幅に低下した。
保護されたモデルは、キー推定攻撃に対して堅牢であることも実証された。
関連論文リスト
- Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - ModelLock: Locking Your Model With a Spell [90.36433941408536]
ModelLockと呼ばれる拡散ベースのフレームワークは、テキストガイドによる画像編集を探求し、トレーニングデータをユニークなスタイルに変換するか、バックグラウンドで新しいオブジェクトを追加する。
このデータセットに微調整されたモデルはロックされ、キープロンプトによってのみアンロックされる。
画像分類とセグメンテーションの両方のタスクについて広範な実験を行い、ModelLockが期待する性能を著しく低下させることなく、効果的に細調整されたモデルをロックできることを示します。
論文 参考訳(メタデータ) (2024-05-25T15:52:34Z) - Match me if you can: Semi-Supervised Semantic Correspondence Learning with Unpaired Images [76.47980643420375]
本稿では,意味的対応の学習に固有のデータ・ハングリー・マターが存在するという仮説に基づく。
我々は,機械の監督を通じて,ペア化されたキーポイントを確実に強化する単純な機械注釈器を実証する。
我々のモデルは,SPair-71k,PF-PASCAL,PF-WILLOWといった意味対応学習ベンチマークの最先端モデルを上回る。
論文 参考訳(メタデータ) (2023-11-30T13:22:15Z) - Are You Stealing My Model? Sample Correlation for Fingerprinting Deep
Neural Networks [86.55317144826179]
従来の方法は、常にモデル指紋として転送可能な敵の例を利用する。
本稿では,SAmple correlation (SAC) に基づく新しいモデル盗難検出手法を提案する。
SACは、敵の訓練や移動学習を含む様々なモデル盗難攻撃をうまく防いでいる。
論文 参考訳(メタデータ) (2022-10-21T02:07:50Z) - An Access Control Method with Secret Key for Semantic Segmentation
Models [12.27887776401573]
非許可アクセスからモデルを保護するために,秘密鍵を用いた新しいアクセス制御法を提案する。
セグメンテーション変換器(SETR)と呼ばれる視覚変換器(ViT)を用いたセグメンテーションモデルに焦点を当てる。
論文 参考訳(メタデータ) (2022-08-28T04:09:36Z) - An Encryption Method of ConvMixer Models without Performance Degradation [14.505867475659276]
本稿では秘密鍵を用いたConvMixerモデルの暗号化手法を提案する。
本手法の有効性を,分類精度とモデル保護の観点から評価した。
論文 参考訳(メタデータ) (2022-07-25T07:09:16Z) - A Protection Method of Trained CNN Model Using Feature Maps Transformed
With Secret Key From Unauthorized Access [15.483078145498085]
本稿では,秘密鍵を用いた畳み込みニューラルネットワーク(CNN)のモデル保護手法を提案する。
提案手法は秘密鍵を用いたブロックワイズ変換をネットワーク内の特徴マップに適用する。
論文 参考訳(メタデータ) (2021-09-01T07:47:05Z) - A Protection Method of Trained CNN Model with Secret Key from
Unauthorized Access [15.483078145498085]
本稿では,秘密鍵セットを用いて畳み込みニューラルネットワーク(CNN)モデルを保護する新しい手法を提案する。
本手法は,著作権侵害から保護するだけでなく,モデルの機能も不正アクセスから保護することができる。
論文 参考訳(メタデータ) (2021-05-31T07:37:33Z) - Training DNN Model with Secret Key for Model Protection [17.551718914117917]
本稿では,ブロックワイズ画素シャッフルと秘密鍵を前処理技術として用いた画像入力によるモデル保護手法を提案する。
実験の結果,キーが正しい場合,保護モデルの性能は非保護モデルに近いことがわかった。
論文 参考訳(メタデータ) (2020-08-06T04:25:59Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。