論文の概要: Is the Hard-Label Cryptanalytic Model Extraction Really Polynomial?
- arxiv url: http://arxiv.org/abs/2510.06692v1
- Date: Wed, 08 Oct 2025 06:29:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.333996
- Title: Is the Hard-Label Cryptanalytic Model Extraction Really Polynomial?
- Title(参考訳): ハードラベル・クリプトアナリシスモデル抽出は本当にポリノミアルか?
- Authors: Akira Ito, Takayuki Miura, Yosuke Todo,
- Abstract要約: ディープニューラルネットワーク(DNN)は注目されており、その内部モデルは現在、貴重な知的資産と見なされている。
本稿では,攻撃対象深度が増大するにつれて,攻撃の前提となる仮定が非現実的になることを示す。
この限界に対処するために、CrossLayer extractと呼ばれる新しい攻撃手法を提案する。
- 参考スコア(独自算出の注目度): 4.693322408385527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) have attracted significant attention, and their internal models are now considered valuable intellectual assets. Extracting these internal models through access to a DNN is conceptually similar to extracting a secret key via oracle access to a block cipher. Consequently, cryptanalytic techniques, particularly differential-like attacks, have been actively explored recently. ReLU-based DNNs are the most commonly and widely deployed architectures. While early works (e.g., Crypto 2020, Eurocrypt 2024) assume access to exact output logits, which are usually invisible, more recent works (e.g., Asiacrypt 2024, Eurocrypt 2025) focus on the hard-label setting, where only the final classification result (e.g., "dog" or "car") is available to the attacker. Notably, Carlini et al. (Eurocrypt 2025) demonstrated that model extraction is feasible in polynomial time even under this restricted setting. In this paper, we first show that the assumptions underlying their attack become increasingly unrealistic as the attack-target depth grows. In practice, satisfying these assumptions requires an exponential number of queries with respect to the attack depth, implying that the attack does not always run in polynomial time. To address this critical limitation, we propose a novel attack method called CrossLayer Extraction. Instead of directly extracting the secret parameters (e.g., weights and biases) of a specific neuron, which incurs exponential cost, we exploit neuron interactions across layers to extract this information from deeper layers. This technique significantly reduces query complexity and mitigates the limitations of existing model extraction approaches.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は注目されており、その内部モデルは現在、貴重な知的資産と見なされている。
DNNへのアクセスを通じてこれらの内部モデルを抽出することは、ブロック暗号へのオラクルアクセスを介して秘密鍵を抽出するのと概念的に似ている。
その結果、近年、特に差分攻撃のような暗号解析技術が盛んに研究されている。
ReLUベースのDNNは最も一般的で広くデプロイされているアーキテクチャである。
初期の作品(例:Crypto 2020、Eurocrypt 2024)は、通常は見えない正確な出力ログへのアクセスを前提としているが、より最近の作品(例:Asiacrypt 2024、Eurocrypt 2025)はハードラベル設定に焦点を当てており、最終分類結果(例:「犬」または「車」)のみが攻撃者に利用可能である。
特に、Carliini et al (Eurocrypt 2025) は、モデル抽出がこの制限された条件の下でも多項式時間で可能であることを示した。
本稿では,攻撃対象深度が増大するにつれて,攻撃の前提となる仮定が非現実的になることを示す。
実際には、これらの仮定を満たすには、攻撃深度に関して指数関数的な数のクエリが必要であり、攻撃が常に多項式時間で実行されるとは限らないことを暗示している。
この限界に対処するために、CrossLayer extractと呼ばれる新しい攻撃手法を提案する。
特定のニューロンの秘密パラメータ(例えば重みやバイアス)を直接抽出する代わりに、層間の相互作用を利用してより深い層から情報を抽出する。
この技術はクエリの複雑さを大幅に減らし、既存のモデル抽出アプローチの限界を緩和する。
関連論文リスト
- Polynomial Time Cryptanalytic Extraction of Deep Neural Networks in the Hard-Label Setting [45.68094593114181]
ディープニューラルネットワーク(DNN)は貴重な資産だが、その公開アクセシビリティはセキュリティ上の懸念を引き起こす。
本稿では,DNNパラメータの暗号的抽出を,最も難しいハードラベル設定で初めて行う手法を紹介する。
論文 参考訳(メタデータ) (2024-10-08T07:27:55Z) - Hard-Label Cryptanalytic Extraction of Neural Network Models [10.568722566232127]
ハードラベル設定下で機能的に等価な抽出を理論的に達成する最初の攻撃を提案する。
我々の攻撃の有効性は、広範囲のReLUニューラルネットワーク上での実践的な実験を通じて検証される。
論文 参考訳(メタデータ) (2024-09-18T02:17:10Z) - Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - Polynomial Time Cryptanalytic Extraction of Neural Network Models [3.3466632238361393]
ReLUベースのディープニューラルネットワークに対する最新の攻撃は、Crypto 2020で発表された。
新しい手法により、ReLUベースのニューラルネットワークの実際のパラメータをすべて任意に高精度に抽出できる。
論文 参考訳(メタデータ) (2023-10-12T20:44:41Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - NeuroUnlock: Unlocking the Architecture of Obfuscated Deep Neural
Networks [12.264879142584617]
我々は難読化ディープニューラルネットワーク(DNN)に対する新しいSCAS攻撃であるNeuroUnlockを紹介する。
当社のNeuroUnlockでは,難読化手順を学習し,自動的に再帰するシーケンス・ツー・シーケンスモデルを採用している。
また, DNN難読化のための新しい手法であるReDLockを提案し, 難読化の決定論的性質を根絶する。
論文 参考訳(メタデータ) (2022-06-01T11:10:00Z) - On the Importance of Encrypting Deep Features [15.340540198612823]
ユーザデータの特徴ベクトルが知られ、推論のためのブラックボックスAPIが提供される。
個人再識別における最先端モデルの実験を行い,2つの攻撃シナリオ(補助属性の認識とユーザデータの再構築)について検討した。
その結果、厳しい制約下であっても、敵は機密情報を推測することに成功した。
論文 参考訳(メタデータ) (2021-08-16T15:22:33Z) - Poison Ink: Robust and Invisible Backdoor Attack [122.49388230821654]
我々はポゾン・インクと呼ばれる頑丈で目に見えないバックドア攻撃を提案する。
具体的には、まず、画像構造を標的の中毒領域として利用し、それらを毒インク(情報)で満たしてトリガーパターンを生成する。
既存の一般的なバックドア攻撃方法と比較して、Poison Inkはステルスネスとロバストネスの両方で優れている。
論文 参考訳(メタデータ) (2021-08-05T09:52:49Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。