論文の概要: Navigating the Deep: Signature Extraction on Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2506.17047v1
- Date: Fri, 20 Jun 2025 14:59:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.495083
- Title: Navigating the Deep: Signature Extraction on Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークにおける信号抽出
- Authors: Haolin Liu, Adrien Siproudhis, Samuel Experton, Peter Lorenz, Christina Boura, Thomas Peyrin,
- Abstract要約: ニューラルネットワークモデル抽出は重要なセキュリティ上の懸念事項として浮上している。
以前の研究は、ニューラルネットワークパラメータを抽出するために、差分暗号解析にインスパイアされたテクニックを導入していた。
カルリーニ等のシグネチャ抽出法において,シグネチャ抽出法において,シグネチャ抽出法を初めて体系的に同定し,対処することにより,シグネチャ抽出法を再検討し,洗練する。
- 参考スコア(独自算出の注目度): 7.13570508245734
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural network model extraction has emerged in recent years as an important security concern, as adversaries attempt to recover a network's parameters via black-box queries. A key step in this process is signature extraction, which aims to recover the absolute values of the network's weights layer by layer. Prior work, notably by Carlini et al. (2020), introduced a technique inspired by differential cryptanalysis to extract neural network parameters. However, their method suffers from several limitations that restrict its applicability to networks with a few layers only. Later works focused on improving sign extraction, but largely relied on the assumption that signature extraction itself was feasible. In this work, we revisit and refine the signature extraction process by systematically identifying and addressing for the first time critical limitations of Carlini et al.'s signature extraction method. These limitations include rank deficiency and noise propagation from deeper layers. To overcome these challenges, we propose efficient algorithmic solutions for each of the identified issues, greatly improving the efficiency of signature extraction. Our approach permits the extraction of much deeper networks than was previously possible. We validate our method through extensive experiments on ReLU-based neural networks, demonstrating significant improvements in extraction depth and accuracy. For instance, our extracted network matches the target network on at least 95% of the input space for each of the eight layers of a neural network trained on the CIFAR-10 dataset, while previous works could barely extract the first three layers. Our results represent a crucial step toward practical attacks on larger and more complex neural network architectures.
- Abstract(参考訳): ニューラルネットワークモデル抽出は、ブラックボックスクエリを通じてネットワークのパラメータを回復しようとする敵によって、近年重要なセキュリティ上の懸念として浮上している。
このプロセスの重要なステップはシグネチャ抽出であり、これはネットワークの重み付け層の絶対値を層単位で復元することを目的としている。
これまでの研究、特にCarini et al (2020)は、ニューラルネットワークパラメータを抽出するために、差分暗号解析にインスパイアされたテクニックを導入した。
しかし、それらの手法は、いくつかの層しか持たないネットワークに適用性を制限するいくつかの制限に悩まされている。
その後の研究は、手話抽出の改善に焦点を当てたが、署名抽出自体が実現可能であるという仮定に大きく依存した。
本稿では,Carliini et al のシグニチャ抽出法において,初めて重要な制約を体系的に同定し,対処することにより,シグニチャ抽出のプロセスを再検討し,洗練する。
これらの制限には、より深い層からのランク不足とノイズ伝搬が含まれる。
これらの課題を克服するために,各問題に対する効率的なアルゴリズム解を提案し,シグネチャ抽出の効率を大幅に向上させる。
提案手法により,従来よりはるかに深いネットワークの抽出が可能となった。
提案手法は,ReLUに基づくニューラルネットワークの広範囲な実験により検証され,抽出深度と精度が大幅に向上した。
例えば、抽出したネットワークは、CIFAR-10データセットでトレーニングされたニューラルネットワークの8つの層それぞれに対して、少なくとも95%の入力空間でターゲットネットワークと一致します。
我々の結果は、より大規模で複雑なニューラルネットワークアーキテクチャに対する実践的な攻撃に向けた重要なステップである。
関連論文リスト
- Robust Weight Initialization for Tanh Neural Networks with Fixed Point Analysis [5.016205338484259]
ニューラルネットワークの深さが増加すると、一般化性能が向上する。
本稿では,タンハアクティベーション機能を持つニューラルネットワークの新しい重み初期化手法を提案する。
様々な分類データセットと物理インフォームドニューラルネットワークの実験により、提案手法は、異なるネットワークサイズにわたる堅牢性の観点から、Xavier法(正規化の有無にかかわらず)より優れていることを示した。
論文 参考訳(メタデータ) (2024-10-03T06:30:27Z) - Hard-Label Cryptanalytic Extraction of Neural Network Models [10.568722566232127]
ハードラベル設定下で機能的に等価な抽出を理論的に達成する最初の攻撃を提案する。
我々の攻撃の有効性は、広範囲のReLUニューラルネットワーク上での実践的な実験を通じて検証される。
論文 参考訳(メタデータ) (2024-09-18T02:17:10Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Zonotope Domains for Lagrangian Neural Network Verification [102.13346781220383]
我々は、ディープニューラルネットワークを多くの2層ニューラルネットワークの検証に分解する。
我々の手法は線形プログラミングとラグランジアンに基づく検証技術の両方により改善された境界を与える。
論文 参考訳(メタデータ) (2022-10-14T19:31:39Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - Efficiently Learning Any One Hidden Layer ReLU Network From Queries [27.428198343906352]
ネットワークへのブラックボックスアクセスを提供するニューラルネットワークアクティベーションを任意の1つの隠蔽層で学習するアルゴリズムを初めて提供する。
最悪のネットワークであっても、完全時間で効率を保証できるのはこれが初めてです。
論文 参考訳(メタデータ) (2021-11-08T18:59:40Z) - A Compact Deep Learning Model for Face Spoofing Detection [4.250231861415827]
プレゼンテーションアタック検出(PAD)は研究コミュニティから大きな注目を集めている。
我々は、統一されたニューラルネットワークアーキテクチャにおいて、幅広い機能と深い機能の両方を融合することで、この問題に対処する。
この手順は、ROSE-Youtu、SiW、NUAA Imposterなどのさまざまなスプーフィングデータセットで行われます。
論文 参考訳(メタデータ) (2021-01-12T21:20:09Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。