論文の概要: A Protection against the Extraction of Neural Network Models
- arxiv url: http://arxiv.org/abs/2005.12782v3
- Date: Fri, 31 Jul 2020 09:41:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 23:47:14.690235
- Title: A Protection against the Extraction of Neural Network Models
- Title(参考訳): ニューラルネットワークモデルの抽出に対する保護
- Authors: Herv\'e Chabanne and Vincent Despiegel and Linda Guiga
- Abstract要約: NNの予測をほとんど変更しない寄生層を追加することで保護を導入する。
本対策は,畳み込みNNを用いた雑音性同一性マッピングの近似に頼っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given oracle access to a Neural Network (NN), it is possible to extract its
underlying model. We here introduce a protection by adding parasitic layers
which keep the underlying NN's predictions mostly unchanged while complexifying
the task of reverse-engineering. Our countermeasure relies on approximating a
noisy identity mapping with a Convolutional NN. We explain why the introduction
of new parasitic layers complexifies the attacks. We report experiments
regarding the performance and the accuracy of the protected NN.
- Abstract(参考訳): oracleがニューラルネットワーク(nn)にアクセスすると、その基盤となるモデルを抽出することができる。
ここでは,基盤となるnnの予測をほとんど変更せず,リバースエンジニアリングのタスクを複雑化させる寄生層を追加することで保護を導入する。
提案手法は,畳み込みnnを用いた雑音idマッピングを近似する。
新たな寄生層の導入が攻撃を複雑化する理由を説明する。
我々は,保護されたNNの性能と精度に関する実験を報告する。
関連論文リスト
- Generalization Guarantees of Gradient Descent for Multi-Layer Neural
Networks [55.86300309474023]
多層NNに対する勾配降下(GD)の総合的安定性と一般化解析を行う。
2層NNと3層NNの両方において、GDアルゴリズムに対するO(1/sqrtn)$の過剰リスク率を導出する。
論文 参考訳(メタデータ) (2023-05-26T12:51:38Z) - Reconstructive Neuron Pruning for Backdoor Defense [96.21882565556072]
本稿では, バックドアニューロンの露出とプルーンの抑制を目的とした, emphReconstructive Neuron Pruning (RNP) という新しい防御法を提案する。
RNPでは、アンラーニングはニューロンレベルで行われ、リカバリはフィルタレベルで行われ、非対称再構成学習手順を形成する。
このような非対称なプロセスは、少数のクリーンサンプルだけが、広範囲の攻撃によって移植されたバックドアニューロンを効果的に露出し、刺激することができることを示す。
論文 参考訳(メタデータ) (2023-05-24T08:29:30Z) - NASCTY: Neuroevolution to Attack Side-channel Leakages Yielding
Convolutional Neural Networks [1.1602089225841632]
サイドチャネル解析(SCA)は、デバイスが生成した漏洩を利用して秘密鍵に関する情報を得ることができる。
研究者らは先日、ニューラルネットワーク(NN)が強力なプロファイリングSCAを実行可能であることを発見した。
本稿では,畳み込みニューラルネットワーク(NASCTY-CNN)を応用した攻撃側チャネルトレースに対する神経進化の有効性について検討する。
論文 参考訳(メタデータ) (2023-01-25T19:31:04Z) - Preventing Distillation-based Attacks on Neural Network IP [0.9558392439655015]
ニューラルネットワーク(NN)はすでにハードウェアにデプロイされており、トレーニングと最適化に何時間も費やされているため、貴重な知的財産権(IP)になっている。
そこで本研究では,蒸留による攻撃を防ぎ,予測を害する直感的な方法を提案する。
提案手法はNNを難読化して、攻撃者がNNを完全に的確に訓練できないようにする。
論文 参考訳(メタデータ) (2022-04-01T08:53:57Z) - Generating Adversarial Examples with Graph Neural Networks [26.74003742013481]
両手法の強みを生かしたグラフニューラルネットワーク(GNN)に基づく新たな攻撃を提案する。
PGDアタック,MI-FGSM,Carini,Wagnerアタックなど,最先端の敵攻撃に勝っていることを示す。
我々は、敵攻撃のより実証的な比較を可能にするために特別に設計された、新しい挑戦的なデータセットを提供する。
論文 参考訳(メタデータ) (2021-05-30T22:46:41Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Entropy-Based Modeling for Estimating Soft Errors Impact on Binarized
Neural Network Inference [2.249916681499244]
本稿では,SEU(Single-event upset)とMBU(Multi-bit upset)の影響を階層間および選択した畳み込みニューラルネットワークの各層で明らかにする比較的正確な統計モデルを提案する。
これらのモデルは、安全クリティカルなアプリケーションで採用する前に、NNトポロジのエラー-レジリエンスのマグニチュードを評価するために使用できる。
論文 参考訳(メタデータ) (2020-04-10T16:10:24Z) - Phase Detection with Neural Networks: Interpreting the Black Box [58.720142291102135]
ニューラルネットワーク(NN)は通常、予測の背後にある推論に対する洞察を妨げます。
本研究では,1次元拡張スピンレスFermi-Hubbardモデルの位相を半充足で予測するために,NNのブラックボックスをいかに影響関数が解き放つかを示す。
論文 参考訳(メタデータ) (2020-04-09T17:45:45Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。