論文の概要: Probabilistic Selective Encryption of Convolutional Neural Networks for
Hierarchical Services
- arxiv url: http://arxiv.org/abs/2105.12344v1
- Date: Wed, 26 May 2021 06:15:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-27 13:22:51.721174
- Title: Probabilistic Selective Encryption of Convolutional Neural Networks for
Hierarchical Services
- Title(参考訳): 階層型サービスのための畳み込みニューラルネットワークの確率論的選択暗号化
- Authors: Jinyu Tian, Jiantao Zhou, and Jia Duan
- Abstract要約: 我々は,CNNモデルを不正アクセスから保護するために,選択的暗号化(SE)アルゴリズムを提案する。
提案した確率的選択戦略(PSS)を用いて重要なモデルパラメータを選択する。
次に、DPRM(Distributed Preserving Random Mask)と呼ばれる設計された暗号化手法で、最も重要なパラメータを暗号化する。
- 参考スコア(独自算出の注目度): 13.643603852209091
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Model protection is vital when deploying Convolutional Neural Networks (CNNs)
for commercial services, due to the massive costs of training them. In this
work, we propose a selective encryption (SE) algorithm to protect CNN models
from unauthorized access, with a unique feature of providing hierarchical
services to users. Our algorithm firstly selects important model parameters via
the proposed Probabilistic Selection Strategy (PSS). It then encrypts the most
important parameters with the designed encryption method called Distribution
Preserving Random Mask (DPRM), so as to maximize the performance degradation by
encrypting only a very small portion of model parameters. We also design a set
of access permissions, using which different amounts of the most important
model parameters can be decrypted. Hence, different levels of model performance
can be naturally provided for users. Experimental results demonstrate that the
proposed scheme could effectively protect the classification model VGG19 by
merely encrypting 8% parameters of convolutional layers. We also implement the
proposed model protection scheme in the denoising model DnCNN, showcasing the
hierarchical denoising services
- Abstract(参考訳): モデル保護は、商用サービスに畳み込みニューラルネットワーク(CNN)をデプロイする際に必要不可欠である。
本研究では,CNNモデルを不正アクセスから保護するための選択的暗号化(SE)アルゴリズムを提案する。
提案手法はまず,PSS (Probabilistic Selection Strategy) を用いて重要なモデルパラメータを選択する。
次に、分散保存ランダムマスク(dprm)と呼ばれる設計された暗号化手法で最も重要なパラメータを暗号化し、モデルパラメータのごく一部だけを暗号化することで性能低下を最大化する。
我々はまた、重要なモデルパラメータの様々な量を復号化できるアクセス許可のセットを設計する。
したがって、モデルパフォーマンスの異なるレベルをユーザに自然に提供することができる。
提案手法は, 畳み込み層の8%のパラメータを暗号化するだけで, 分類モデルVGG19を効果的に保護できることを示す。
また,提案モデルであるdncnnで提案するモデル保護スキームを実装し,階層的デノージングサービスを示す。
関連論文リスト
- Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Prompt Tuning for Parameter-efficient Medical Image Segmentation [79.09285179181225]
2つの医用画像データセットのセマンティックセグメンテーションにパラメータ効率が良いが効果的な適応を実現するために,いくつかのコントリビューションを提案し,検討する。
我々はこのアーキテクチャを、オンライン生成プロトタイプへの割り当てに基づく専用密集型セルフスーパービジョンスキームで事前訓練する。
得られたニューラルネットワークモデルにより、完全に微調整されたモデルとパラメータに適応したモデルとのギャップを緩和できることを実証する。
論文 参考訳(メタデータ) (2022-11-16T21:55:05Z) - Federated Learning with Quantum Secure Aggregation [23.385315728881295]
このスキームは、プライベートモデルパラメータが半正直な攻撃者に開示されるのを防ぐために安全である。
提案されたセキュリティメカニズムにより、プライベートモデルのパラメータを盗聴しようとする試みが直ちに検出され、停止されることが保証される。
論文 参考訳(メタデータ) (2022-07-09T13:21:36Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - A new perspective on probabilistic image modeling [92.89846887298852]
本稿では,密度推定,サンプリング,トラクタブル推論が可能な画像モデリングのための新しい確率論的手法を提案する。
DCGMMは、CNNのように、ランダムな初期条件からSGDによってエンドツーエンドに訓練することができる。
本研究は,近年のPCおよびSPNモデルと,推論,分類,サンプリングの観点から比較した。
論文 参考訳(メタデータ) (2022-03-21T14:53:57Z) - Protecting Semantic Segmentation Models by Using Block-wise Image
Encryption with Secret Key from Unauthorized Access [13.106063755117399]
秘密鍵を用いたブロックワイズ変換を利用して,セマンティックセグメンテーションモデルを不正アクセスから保護することを提案する。
実験の結果,提案手法により,適切なキーを持つ適切なユーザに対して,モデルにフル容量でアクセスし,不正ユーザの性能を低下させることができることがわかった。
論文 参考訳(メタデータ) (2021-07-20T09:31:15Z) - Rate Distortion Characteristic Modeling for Neural Image Compression [59.25700168404325]
エンドツーエンドの最適化機能は、ニューラルイメージ圧縮(NIC)の優れた損失圧縮性能を提供する。
異なるモデルは、R-D空間の異なる点に到達するために訓練される必要がある。
深層ネットワークと統計モデルを用いてNICのR-D挙動を記述するために,本質的な数学的関数の定式化に努めている。
論文 参考訳(メタデータ) (2021-06-24T12:23:05Z) - AdvParams: An Active DNN Intellectual Property Protection Technique via
Adversarial Perturbation Based Parameter Encryption [10.223780756303196]
本稿では,DNNIPを侵害から積極的に保護するための効果的な枠組みを提案する。
具体的には、DNNモデルのパラメータを、よく構築された対向的摂動で摂動することで暗号化する。
暗号化後、暗号化されたパラメータの位置と追加された敵の摂動の値が秘密鍵となる。
論文 参考訳(メタデータ) (2021-05-28T09:42:35Z) - Extended Stochastic Block Models with Application to Criminal Networks [3.2211782521637393]
犯罪者間の関係を符号化する隠蔽ネットワークについて検討する。
ノイズの多いブロックパターンの共存は、日常的に使用されるコミュニティ検出アルゴリズムの信頼性を制限する。
我々は,共通接続パターンを持つノード群を推論する拡張ブロックモデル(ESBM)を新たに開発した。
論文 参考訳(メタデータ) (2020-07-16T19:06:16Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。