論文の概要: Cryptanalytic Extraction of Neural Network Models
- arxiv url: http://arxiv.org/abs/2003.04884v2
- Date: Wed, 22 Jul 2020 16:58:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 21:46:52.273080
- Title: Cryptanalytic Extraction of Neural Network Models
- Title(参考訳): ニューラルネットワークモデルの暗号解析抽出
- Authors: Nicholas Carlini, Matthew Jagielski, Ilya Mironov
- Abstract要約: 遠隔モデルのパラメータを浮動小数点精度まで効率的に盗むことができる差動攻撃を導入する。
我々の攻撃は、ReLUニューラルネットワークが一括線形関数であるという事実に依存している。
220倍の正確さと100倍のクエリを必要とするモデルを抽出する。
- 参考スコア(独自算出の注目度): 56.738871473622865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We argue that the machine learning problem of model extraction is actually a
cryptanalytic problem in disguise, and should be studied as such. Given oracle
access to a neural network, we introduce a differential attack that can
efficiently steal the parameters of the remote model up to floating point
precision. Our attack relies on the fact that ReLU neural networks are
piecewise linear functions, and thus queries at the critical points reveal
information about the model parameters.
We evaluate our attack on multiple neural network models and extract models
that are 2^20 times more precise and require 100x fewer queries than prior
work. For example, we extract a 100,000 parameter neural network trained on the
MNIST digit recognition task with 2^21.5 queries in under an hour, such that
the extracted model agrees with the oracle on all inputs up to a worst-case
error of 2^-25, or a model with 4,000 parameters in 2^18.5 queries with
worst-case error of 2^-40.4. Code is available at
https://github.com/google-research/cryptanalytic-model-extraction.
- Abstract(参考訳): モデル抽出の機械学習問題は、実際には暗号解析の問題であり、そのように研究されるべきである。
ニューラルネットワークへのオラクルアクセスを前提として,遠隔モデルのパラメータを浮動小数点精度まで効率的に盗むことができるディファレンシャルアタックを導入する。
我々の攻撃は、ReLUニューラルネットワークが断片的に線形関数であるという事実に依存しており、臨界点におけるクエリはモデルパラメータに関する情報を明らかにする。
我々は、複数のニューラルネットワークモデルに対する攻撃を評価し、2^20倍正確で、以前の作業よりも100倍少ないクエリを必要とするモデルを抽出する。
例えば、mnist桁認識タスクでトレーニングされた10万のパラメータニューラルネットワークを1時間以内に2^21.5クエリで抽出し、抽出したモデルが2^-25までの入力すべてにおいてオラクルと一致し、2^-40.4の最悪のケースエラーを持つ2^18.5クエリで4,000のパラメータを持つモデルである。
コードはhttps://github.com/google-research/cryptanalytic-model-extractionで入手できる。
関連論文リスト
- Sequencing the Neurome: Towards Scalable Exact Parameter Reconstruction of Black-Box Neural Networks [7.0710630443004705]
クエリアクセスのみでニューラルネットワークの正確なパラメータを推測することはNP-Hardの問題である。
本稿では,最大情報化サンプルを生成し,非線形関係を効率的に解き放つ新しいクエリ生成アルゴリズムを提案する。
本稿では,150万以上のパラメータを含む隠れネットワークを再構築し,最大パラメータ差が0.0001未満の7層のうち,最大かつ最も深い再構成を行った。
論文 参考訳(メタデータ) (2024-09-27T21:02:04Z) - Efficient Verification-Based Face Identification [50.616875565173274]
効率の良いニューラルモデルで顔認証を行う際の問題点を$f$で検討する。
我々のモデルは、23kパラメータと5M浮動小数点演算(FLOPS)しか必要としない、かなり小さな$f$に導かれる。
我々は、6つの顔認証データセットを用いて、我々の手法が最先端のモデルよりも同等か優れていることを示す。
論文 参考訳(メタデータ) (2023-12-20T18:08:02Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Verifying Inverse Model Neural Networks [39.4062479625023]
逆問題は、航空宇宙工学から医用画像まで、様々な物理的領域に存在している。
本稿では,逆モデルニューラルネットワークの正当性を検証する手法を提案する。
論文 参考訳(メタデータ) (2022-02-04T23:13:22Z) - Investigating the Relationship Between Dropout Regularization and Model
Complexity in Neural Networks [0.0]
ドロップアウト規則化は、ディープラーニングモデルのばらつきを低減するのに役立つ。
2,000のニューラルネットワークをトレーニングすることにより,ドロップアウト率とモデル複雑性の関係について検討する。
各密層に隠されたユニットの数から、最適なドロップアウト率を予測するニューラルネットワークを構築します。
論文 参考訳(メタデータ) (2021-08-14T23:49:33Z) - MEGEX: Data-Free Model Extraction Attack against Gradient-Based
Explainable AI [1.693045612956149]
機械学習・アズ・ア・サービス(ML)にデプロイされたディープニューラルネットワークは、モデル抽出攻撃の脅威に直面している。
モデル抽出攻撃は知的財産権とプライバシーを侵害する攻撃であり、敵は予測だけを使用してクラウド内の訓練されたモデルを盗む。
本稿では、勾配に基づく説明可能なAIに対するデータフリーモデル抽出攻撃であるMEGEXを提案する。
論文 参考訳(メタデータ) (2021-07-19T14:25:06Z) - Probing Model Signal-Awareness via Prediction-Preserving Input
Minimization [67.62847721118142]
モデルが正しい脆弱性信号を捕捉して予測する能力を評価する。
SAR(Signal-Aware Recall)と呼ばれる新しい指標を用いて,モデルの信号認識を計測する。
その結果,90年代以降のリコールから60年代以降のリコールは,新たな指標で大幅に減少した。
論文 参考訳(メタデータ) (2020-11-25T20:05:23Z) - Cassandra: Detecting Trojaned Networks from Adversarial Perturbations [92.43879594465422]
多くの場合、事前トレーニングされたモデルは、トロイの木馬の振る舞いをモデルに挿入するためにトレーニングパイプラインを中断したかもしれないベンダーから派生している。
本稿では,事前学習したモデルがトロイの木馬か良馬かを検証する手法を提案する。
本手法は,ニューラルネットワークの指紋を,ネットワーク勾配から学習した逆方向の摂動の形でキャプチャする。
論文 参考訳(メタデータ) (2020-07-28T19:00:40Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。