論文の概要: Attack on a PUF-based Secure Binary Neural Network
- arxiv url: http://arxiv.org/abs/2510.24422v1
- Date: Tue, 28 Oct 2025 13:43:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.205071
- Title: Attack on a PUF-based Secure Binary Neural Network
- Title(参考訳): PUFを用いたセキュアバイナリニューラルネットワークの攻撃
- Authors: Bijeet Basak, Nupur Patil, Kurian Polachan, Srinivas Vivek,
- Abstract要約: 分岐ニューラルネットワーク(BNN)は、エッジコンピューティングのためのエネルギー効率の良いソリューションを提供する。
最近、Rajendranらは盗難に対するBNNを保護するために、Physical Unclonable Function (PUF)ベースのスキームを提案した。
本稿では,このBNN保護方式がPUFキー回復攻撃に対して脆弱であることを実証する。
- 参考スコア(独自算出の注目度): 0.936631981483389
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Binarized Neural Networks (BNNs) deployed on memristive crossbar arrays provide energy-efficient solutions for edge computing but are susceptible to physical attacks due to memristor nonvolatility. Recently, Rajendran et al. (IEEE Embedded Systems Letter 2025) proposed a Physical Unclonable Function (PUF)-based scheme to secure BNNs against theft attacks. Specifically, the weight and bias matrices of the BNN layers were secured by swapping columns based on device's PUF key bits. In this paper, we demonstrate that this scheme to secure BNNs is vulnerable to PUF-key recovery attack. As a consequence of our attack, we recover the secret weight and bias matrices of the BNN. Our approach is motivated by differential cryptanalysis and reconstructs the PUF key bit-by-bit by observing the change in model accuracy, and eventually recovering the BNN model parameters. Evaluated on a BNN trained on the MNIST dataset, our attack could recover 85% of the PUF key, and recover the BNN model up to 93% classification accuracy compared to the original model's 96% accuracy. Our attack is very efficient and it takes a couple of minutes to recovery the PUF key and the model parameters.
- Abstract(参考訳): 分岐ニューラルネットワーク(BNN)はエッジコンピューティングにエネルギー効率のよいソリューションを提供するが、メムリスタの不揮発性による物理的攻撃の影響を受けやすい。
最近、Rajendran et al (IEEE Embedded Systems Letter 2025) は、盗難攻撃に対してBNNを保護する物理不可避関数(PUF)ベースのスキームを提案した。
具体的には、BNN層の重みとバイアス行列は、デバイスのPUFキービットに基づいてカラムをスワップすることで確保された。
本稿では,このBNN保護方式がPUFキー回復攻撃に対して脆弱であることを実証する。
攻撃の結果,BNNの秘密重みとバイアス行列が回復した。
我々のアプローチは、差分暗号解析によって動機付けられ、モデル精度の変化を観察し、最終的にBNNモデルパラメータを復元することでPUF鍵をビット単位で再構成する。
MNISTデータセットに基づいてトレーニングしたBNNで評価したところ、攻撃によってPUFキーの85%が回復し、BNNモデルは元のモデルの96%の精度と比較して最大93%の分類精度が回復した。
私たちの攻撃は非常に効率的で、PUFキーとモデルパラメータを回復するのに数分かかります。
関連論文リスト
- MARS: A Malignity-Aware Backdoor Defense in Federated Learning [51.77354308287098]
最近提案されたSOTA攻撃(3DFed)は、ディフェンダーがバックドアモデルを受け入れたかどうかを判断するためにインジケータ機構を使用する。
本稿では,各ニューロンの有害な範囲を示すためにバックドアエネルギーを利用するMARS(Maignity-Aware backdooR defenSe)を提案する。
実験により、MARSはSOTAのバックドア攻撃に対して防御でき、既存の防御を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2025-09-21T14:50:02Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Mitigating Adversarial Effects of False Data Injection Attacks in Power Grid [7.64743281201963]
Deep Neural Networksの利点は、False Data Injection Attacks (FDIA)を検出するために電力グリッドに取り入れられている。
本稿では, ランダム化を利用して, 入力をパディングすることで, 逆効果を緩和するフレームワークを提案する。
IEEE 14-bus, 30-bus, 118-bus, 300-bus を用いたシミュレーションにより, フレームワークの良好な結果を示す。
論文 参考訳(メタデータ) (2023-01-29T16:50:16Z) - A Mask-Based Adversarial Defense Scheme [3.759725391906588]
敵対的攻撃はディープニューラルネットワーク(DNN)の機能と精度を妨げる
敵攻撃による負の効果を軽減するため,DNNのためのMask-based Adversarial Defense scheme (MAD)を提案する。
論文 参考訳(メタデータ) (2022-04-21T12:55:27Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - "BNN - BN = ?": Training Binary Neural Networks without Batch
Normalization [92.23297927690149]
バッチ正規化(BN)は、最先端のバイナリニューラルネットワーク(BNN)に不可欠な重要なファシリテータである
BNNのトレーニングに彼らのフレームワークを拡張し、BNNのトレーニングや推論体制からBNを除去できることを初めて実証します。
論文 参考訳(メタデータ) (2021-04-16T16:46:57Z) - RA-BNN: Constructing Robust & Accurate Binary Neural Network to
Simultaneously Defend Adversarial Bit-Flip Attack and Improve Accuracy [32.94007834188562]
重量攻撃、a.k.a。
bit-flip attack(BFA)は、Deep Neural Network(DNN)のパフォーマンス向上に大きく成功している。
完全バイナリー(重みと活性化の両方)ニューラルネットワーク(BNN)を採用したRA-BNNを提案する。
RA-BNNは,ベースラインBNNと比較して2~8 %の精度向上を実現し,BFAに対する耐性を125 倍以上向上できることを示した。
論文 参考訳(メタデータ) (2021-03-22T20:50:30Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Towards Adversarial-Resilient Deep Neural Networks for False Data
Injection Attack Detection in Power Grids [7.351477761427584]
偽データインジェクション攻撃(FDIA)は、電力システムの状態推定に重大なセキュリティ上の脅威をもたらす。
最近の研究では、機械学習(ML)技術、特にディープニューラルネットワーク(DNN)が提案されている。
論文 参考訳(メタデータ) (2021-02-17T22:26:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。