論文の概要: Delving into Cryptanalytic Extraction of PReLU Neural Networks
- arxiv url: http://arxiv.org/abs/2509.16620v1
- Date: Sat, 20 Sep 2025 10:43:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 15:06:56.307554
- Title: Delving into Cryptanalytic Extraction of PReLU Neural Networks
- Title(参考訳): PRELUニューラルネットワークのクリプトアナリシス抽出への展開
- Authors: Yi Chen, Xiaoyang Dong, Ruijie Ma, Yantian Shen, Anyu Wang, Hongbo Yu, Xiaoyun Wang,
- Abstract要約: PRELUニューラルネットワークは、ReLUニューラルネットワークよりも複雑な非線形活性化関数を用いる。
これは、3つの異なる攻撃シナリオにわたるPRELUニューラルネットワーク抽出の実用的な実演である。
- 参考スコア(独自算出の注目度): 9.335653005772926
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The machine learning problem of model extraction was first introduced in 1991 and gained prominence as a cryptanalytic challenge starting with Crypto 2020. For over three decades, research in this field has primarily focused on ReLU-based neural networks. In this work, we take the first step towards the cryptanalytic extraction of PReLU neural networks, which employ more complex nonlinear activation functions than their ReLU counterparts. We propose a raw output-based parameter recovery attack for PReLU networks and extend it to more restrictive scenarios where only the top-m probability scores are accessible. Our attacks are rigorously evaluated through end-to-end experiments on diverse PReLU neural networks, including models trained on the MNIST dataset. To the best of our knowledge, this is the first practical demonstration of PReLU neural network extraction across three distinct attack scenarios.
- Abstract(参考訳): モデル抽出の機械学習問題は1991年に初めて導入され、Crypto 2020から始まる暗号解析の課題として有名になった。
30年以上にわたり、この分野の研究は主にReLUベースのニューラルネットワークに焦点を当ててきた。
本研究では,より複雑な非線形活性化関数を用いるPRELUニューラルネットワークの暗号解析抽出に向けた第一歩を踏み出す。
本稿では,PRELUネットワークに対する生のパラメータ回復攻撃を提案し,それを,トップmの確率スコアのみがアクセス可能なより制限的なシナリオに拡張する。
我々の攻撃は、MNISTデータセットでトレーニングされたモデルを含む様々なPRELUニューラルネットワークのエンドツーエンド実験を通じて、厳格に評価されている。
我々の知る限りでは、これは3つの異なる攻撃シナリオにわたるPRELUニューラルネットワーク抽出の実用的な実演である。
関連論文リスト
- Navigating the Deep: Signature Extraction on Deep Neural Networks [7.13570508245734]
ニューラルネットワークモデル抽出は重要なセキュリティ上の懸念事項として浮上している。
以前の研究は、ニューラルネットワークパラメータを抽出するために、差分暗号解析にインスパイアされたテクニックを導入していた。
カルリーニ等のシグネチャ抽出法において,シグネチャ抽出法において,シグネチャ抽出法を初めて体系的に同定し,対処することにより,シグネチャ抽出法を再検討し,洗練する。
論文 参考訳(メタデータ) (2025-06-20T14:59:47Z) - Hard-Label Cryptanalytic Extraction of Neural Network Models [10.568722566232127]
ハードラベル設定下で機能的に等価な抽出を理論的に達成する最初の攻撃を提案する。
我々の攻撃の有効性は、広範囲のReLUニューラルネットワーク上での実践的な実験を通じて検証される。
論文 参考訳(メタデータ) (2024-09-18T02:17:10Z) - Benign Overfitting for Two-layer ReLU Convolutional Neural Networks [60.19739010031304]
ラベルフリップ雑音を持つ2層ReLU畳み込みニューラルネットワークを学習するためのアルゴリズム依存型リスクバウンダリを確立する。
緩やかな条件下では、勾配降下によってトレーニングされたニューラルネットワークは、ほぼゼロに近いトレーニング損失とベイズ最適試験リスクを達成できることを示す。
論文 参考訳(メタデータ) (2023-03-07T18:59:38Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Feature Purification: How Adversarial Training Performs Robust Deep
Learning [66.05472746340142]
ニューラルネットワークのトレーニングプロセス中に隠れた重みに、特定の小さな密度の混合物が蓄積されることが、敵の例の存在の原因の1つであることを示す。
この原理を説明するために、CIFAR-10データセットの両実験と、ある自然な分類タスクに対して、ランダムな勾配勾配勾配を用いた2層ニューラルネットワークをトレーニングすることを証明する理論的結果を示す。
論文 参考訳(メタデータ) (2020-05-20T16:56:08Z) - Neural Networks and Value at Risk [59.85784504799224]
リスクしきい値推定における資産価値のモンテカルロシミュレーションを行う。
株式市場と長期債を試験資産として利用し、ニューラルネットワークについて検討する。
はるかに少ないデータでフィードされたネットワークは、大幅にパフォーマンスが悪くなっています。
論文 参考訳(メタデータ) (2020-05-04T17:41:59Z) - A Deep Conditioning Treatment of Neural Networks [37.192369308257504]
本研究では,入力データの特定のカーネル行列の条件付けを改善することにより,ニューラルネットワークのトレーニング性を向上させることを示す。
ニューラルネットワークの上位層のみのトレーニングと、ニューラルネットワークのタンジェントカーネルを通じてすべてのレイヤをトレーニングするための学習を行うためのバージョンを提供しています。
論文 参考訳(メタデータ) (2020-02-04T20:21:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。