論文の概要: MixNN: A design for protecting deep learning models
- arxiv url: http://arxiv.org/abs/2203.14803v1
- Date: Mon, 28 Mar 2022 14:44:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 22:42:36.046172
- Title: MixNN: A design for protecting deep learning models
- Title(参考訳): mixnn: ディープラーニングモデルを保護するための設計
- Authors: Chao Liu, Hao Chen, Yusen Wu, Rui Jin
- Abstract要約: 深層学習モデルの構造とパラメータを保護するために,MixNNと呼ばれる新しい設計を提案する。
ある分類実験では、仮想マシンにデプロイされたニューラルネットワークと、AWS EC2のMixNN設計とを比較した。
その結果、MixNNは分類精度が0.001以下であり、MixNN全体の実行時間は1つの仮想マシン上で実行されているものよりも約7.5倍遅いことがわかった。
- 参考スコア(独自算出の注目度): 7.15960995040861
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a novel design, called MixNN, for protecting deep
learning model structure and parameters. The layers in a deep learning model of
MixNN are fully decentralized. It hides communication address, layer parameters
and operations, and forward as well as backward message flows among
non-adjacent layers using the ideas from mix networks. MixNN has following
advantages: 1) an adversary cannot fully control all layers of a model
including the structure and parameters, 2) even some layers may collude but
they cannot tamper with other honest layers, 3) model privacy is preserved in
the training phase. We provide detailed descriptions for deployment. In one
classification experiment, we compared a neural network deployed in a virtual
machine with the same one using the MixNN design on the AWS EC2. The result
shows that our MixNN retains less than 0.001 difference in terms of
classification accuracy, while the whole running time of MixNN is about 7.5
times slower than the one running on a single virtual machine.
- Abstract(参考訳): 本論文では,深層学習モデルの構造とパラメータを保護するために,MixNNと呼ばれる新しい設計を提案する。
MixNNのディープラーニングモデルのレイヤは完全に分散化されています。
混合ネットワークのアイデアを使って、通信アドレス、レイヤパラメータ、オペレーションを隠蔽し、非隣接層間の後方メッセージフローを隠蔽する。
MixNNには次のような利点がある。
1) 敵は、構造及びパラメータを含むモデルのすべての層を完全に制御することはできない。
2)一部の層でも衝突することがあるが、他の正直な層では干渉できない。
3) モデルプライバシはトレーニング段階で保持される。
デプロイメントに関する詳細な説明を提供します。
1つの分類実験で、仮想マシンにデプロイされたニューラルネットワークと、aws ec2上のmixnn設計で同じニューラルネットワークを比較した。
その結果、MixNNは分類精度が0.001以下であり、MixNN全体の実行時間は1つの仮想マシン上で実行されているものよりも約7.5倍遅いことがわかった。
関連論文リスト
- A Gradient Boosting Approach for Training Convolutional and Deep Neural
Networks [0.0]
グラディエントブースティング(GB)に基づく畳み込みニューラルネットワーク(CNN)とディープニューラルネットワークの訓練方法を紹介する。
提案モデルでは,同一アーキテクチャの標準CNNとDeep-NNに対して,分類精度の点で優れた性能を示す。
論文 参考訳(メタデータ) (2023-02-22T12:17:32Z) - Spikeformer: A Novel Architecture for Training High-Performance
Low-Latency Spiking Neural Network [6.8125324121155275]
静的データセットとニューロモルフィックデータセットの両方において,トランスフォーマーをベースとした新しいSNNであるSpikeformerを提案する。
注目すべきは、SpikeformerはImageNet上の他のSNNよりも大きなマージン(5%以上)で、DVS-GestureとImageNetでANNよりも3.1%、そして2.2%高いパフォーマンスである。
論文 参考訳(メタデータ) (2022-11-19T12:49:22Z) - SNN2ANN: A Fast and Memory-Efficient Training Framework for Spiking
Neural Networks [117.56823277328803]
スパイクニューラルネットワークは、低消費電力環境における効率的な計算モデルである。
本稿では,SNNを高速かつメモリ効率で学習するためのSNN-to-ANN(SNN2ANN)フレームワークを提案する。
実験結果から,SNN2ANNをベースとしたモデルがベンチマークデータセットで良好に動作することが示された。
論文 参考訳(メタデータ) (2022-06-19T16:52:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Hybrid Graph Neural Networks for Few-Shot Learning [85.93495480949079]
グラフニューラルネットワーク(GNN)は、数発の学習問題に対処するために使用されている。
帰納的設定の下では、既存のGNNベースのメソッドは競争力が少ない。
本稿では2つのGNN(インスタンスGNNとプロトタイプGNN)からなる新しいハイブリッドGNNモデルを提案する。
論文 参考訳(メタデータ) (2021-12-13T10:20:15Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - MixNN: Protection of Federated Learning Against Inference Attacks by
Mixing Neural Network Layers [0.8029049649310213]
MixNNは、フェデレート学習のためのプロキシベースのプライバシ保護システムである。
MixNNは参加者からモデル更新を受け取り、アグリゲーションサーバにミキシング更新を送信する前に、参加者間でレイヤを混ぜる。
ノイズ勾配を用いたベースラインと比較して,MixNNは属性推定を著しく制限することを示す。
論文 参考訳(メタデータ) (2021-09-26T10:01:52Z) - Fully Spiking Variational Autoencoder [66.58310094608002]
スパイキングニューラルネットワーク(SNN)は、超高速で超低エネルギー消費のニューロモルフィックデバイス上で動作することができる。
本研究では,SNNを用いた可変オートエンコーダ(VAE)を構築し,画像生成を実現する。
論文 参考訳(メタデータ) (2021-09-26T06:10:14Z) - A Battle of Network Structures: An Empirical Study of CNN, Transformer,
and MLP [121.35904748477421]
畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンのための支配的なディープニューラルネットワーク(DNN)アーキテクチャである。
トランスフォーマーとマルチ層パーセプトロン(MLP)ベースのモデル(Vision TransformerやVision-Mixer)が新しいトレンドを導い始めた。
本稿では,これらのDNN構造について実証的研究を行い,それぞれの長所と短所を理解しようとする。
論文 参考訳(メタデータ) (2021-08-30T06:09:02Z) - PrivateSNN: Fully Privacy-Preserving Spiking Neural Networks [6.336941090564427]
PrivateSNNは、データセットに含まれる機密情報を漏洩することなく、トレーニング済みのANNモデルから低電力のスパイクニューラルネットワーク(SNN)を構築することを目指しています。
ANN-SNN変換プロセス中にネットワークが実際のトレーニングデータにアクセスする際に発生するデータ漏洩という2つのタイプのリーク問題に対処する。
データ漏洩問題に対処するため、事前訓練されたANNから合成画像を生成し、生成された画像を用いてANNをSNNに変換する。
我々は、暗号化された privatesnn は、大きな性能低下なしに実装できるだけでなく、かなりのエネルギーで実装できると観察する。
論文 参考訳(メタデータ) (2021-04-07T22:14:02Z) - A Temporal Neural Network Architecture for Online Learning [0.6091702876917281]
時間的ニューラルネットワーク(TNN)は、相対スパイク時間として符号化された情報を通信し、処理する。
TNNアーキテクチャを提案し、概念実証として、オンライン教師付き分類のより大きな文脈でTNNの動作を示す。
論文 参考訳(メタデータ) (2020-11-27T17:15:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。