論文の概要: Going Deep: Using deep learning techniques with simplified mathematical
models against XOR BR and TBR PUFs (Attacks and Countermeasures)
- arxiv url: http://arxiv.org/abs/2009.04063v1
- Date: Wed, 9 Sep 2020 01:41:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 12:16:00.323019
- Title: Going Deep: Using deep learning techniques with simplified mathematical
models against XOR BR and TBR PUFs (Attacks and Countermeasures)
- Title(参考訳): Going Deep: XOR BRおよびTBR PUFに対する簡易な数学的モデルを用いたディープラーニング技術(アタックと対策)
- Authors: Mahmoud Khalafalla, Mahmoud A. Elmohr, Catherine Gebotys
- Abstract要約: 本稿では,簡易な数学的モデルと深層学習(DL)技術を用いたモデリング攻撃に対するPUFの脆弱性の研究に寄与する。
DLモデリング攻撃は、4入力のXOR BR PUFと4入力のXOR PUFのセキュリティを99%の精度で簡単に破壊できる。
新たな難読化アーキテクチャは、DLモデリング攻撃に対抗するためのステップとして導入され、そのような攻撃に対して大きな抵抗を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper contributes to the study of PUFs vulnerability against modeling
attacks by evaluating the security of XOR BR PUFs, XOR TBR PUFs, and obfuscated
architectures of XOR BR PUF using a simplified mathematical model and deep
learning (DL) techniques. Obtained results show that DL modeling attacks could
easily break the security of 4-input XOR BR PUFs and 4-input XOR TBR PUFs with
modeling accuracy $\sim$ 99%. Similar attacks were executed using single-layer
neural networks (NN) and support vector machines (SVM) with polynomial kernel
and the obtained results showed that single NNs failed to break the PUF
security. Furthermore, SVM results confirmed the same modeling accuracy
reported in previous research ($\sim$ 50%). For the first time, this research
empirically shows that DL networks can be used as powerful modeling techniques
against these complex PUF architectures for which previous conventional machine
learning techniques had failed. Furthermore, a detailed scalability analysis is
conducted on the DL networks with respect to PUFs' stage size and complexity.
The analysis shows that the number of layers and hidden neurons inside every
layer has a linear relationship with PUFs' stage size, which agrees with the
theoretical findings in deep learning. Consequently, A new obfuscated
architecture is introduced as a first step to counter DL modeling attacks and
it showed significant resistance against such attacks (16% - 40% less
accuracy). This research provides an important step towards prioritizing the
efforts to introduce new PUF architectures that are more secure and
invulnerable to modeling attacks. Moreover, it triggers future discussions on
the removal of influential bits and the level of obfuscation needed to confirm
that a specific PUF architecture is resistant against powerful DL modeling
attacks.
- Abstract(参考訳): 本稿では,XOR BR PUFs,XOR TBR PUFs,およびXOR BR PUFの難解アーキテクチャのセキュリティを評価することで,モデリング攻撃に対するPUFs脆弱性の研究に寄与する。
その結果,4入力のXOR BR PUFと4入力のXOR TBR PUFのセキュリティを,モデリング精度$\sim$99%で容易に破壊できることがわかった。
同様の攻撃は単層ニューラルネットワーク(NN)と多項式カーネルによるサポートベクターマシン(SVM)を用いて実行され、その結果、単一のNNがPUFのセキュリティを損なうことが判明した。
さらに、SVMの結果は、以前の研究で報告されたのと同じモデリング精度(\sim$ 50%)を確認した。
この研究は、従来の機械学習技術が失敗したこれらの複雑なPUFアーキテクチャに対して、DLネットワークが強力なモデリング技術として使用できることを実証的に示す。
さらに,pfsのステージサイズと複雑さに関して,dlネットワーク上で詳細なスケーラビリティ解析を行う。
解析の結果、各層内の層数と隠れたニューロン数はPUFsのステージサイズと線形関係にあり、これはディープラーニングの理論的な発見と一致することがわかった。
その結果、新しい難読化アーキテクチャがDLモデリング攻撃に対抗する最初のステップとして導入され、そのような攻撃に対して大きな抵抗(16% - 40%の精度)を示した。
この研究は、モデリング攻撃に対してより安全で不要な、新しいpufアーキテクチャを導入する取り組みを優先順位付けるための重要なステップを提供する。
さらに、特定のPUFアーキテクチャが強力なDLモデリング攻撃に対して耐性があることを確認するのに必要な、影響ビットの除去と難読化のレベルに関する今後の議論のきっかけとなる。
関連論文リスト
- Designing a Photonic Physically Unclonable Function Having Resilience to Machine Learning Attacks [2.369276238599885]
機械学習(ML)攻撃の訓練に必要なデータセットを生成するための計算PUFモデルについて述べる。
モデル化されたPUFは均一な白色雑音に類似した分布を生成する。
予備的な解析は、PUFが生成する敵ネットワークに類似したレジリエンスを示すことを示唆している。
論文 参考訳(メタデータ) (2024-04-03T03:58:21Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Attacking Delay-based PUFs with Minimal Adversary Model [13.714598539443513]
Physically Unclonable Functions (PUF)は、軽量デバイス認証のための合理化されたソリューションを提供する。
遅延ベースのArbiter PUFは実装の容易さと膨大なチャレンジスペースを持ち、大きな注目を集めている。
モデリングに抵抗するPUFの開発と、それらに対する機械学習攻撃の考案の間には、研究が偏在している。
論文 参考訳(メタデータ) (2024-03-01T11:35:39Z) - Model-Based RL for Mean-Field Games is not Statistically Harder than Single-Agent RL [57.745700271150454]
モデルに基づく関数近似を用いた平均フィールドゲーム(MFG)における強化学習のサンプル複雑性について検討した。
本稿では、モデルクラスの複雑性を特徴付けるためのより効果的な概念である部分モデルベースエルダー次元(P-MBED)を紹介する。
論文 参考訳(メタデータ) (2024-02-08T14:54:47Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - PUF-Phenotype: A Robust and Noise-Resilient Approach to Aid
Intra-Group-based Authentication with DRAM-PUFs Using Machine Learning [10.445311342905118]
機械学習(ML)を用いて,DRAM PUF応答の起源を正確に識別する分類システムを提案する。
特徴抽出のための改良深部畳み込みニューラルネットワーク(CNN)を用いて,最大98%の分類精度を実現した。
論文 参考訳(メタデータ) (2022-07-11T08:13:08Z) - A New Security Boundary of Component Differentially Challenged XOR PUFs
Against Machine Learning Modeling Attacks [0.0]
XOR Arbiter PUF(XOR PUF、XOR PUF)は、Arbiter PUFの安全性を改善するために開発されたPUFである。
近年、強力な機械学習攻撃法が発見され、大規模なXPUFを簡単に破壊することができた。
本稿では,XPUFを攻撃するための2つの最も強力な機械学習手法を,CDC-XPUFの2つの手法のパラメータを微調整することによって適用する。
論文 参考訳(メタデータ) (2022-06-02T21:51:39Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - RAB: Provable Robustness Against Backdoor Attacks [20.702977915926787]
我々は、一般的な脅威モデル、特にバックドアアタックに対して、機械学習モデルの堅牢性を証明することに重点を置いている。
トレーニングモデルをスムースにし,バックドア攻撃に対する堅牢性を証明するための,最初の堅牢なトレーニングプロセスであるRABを提案する。
我々は、さまざまな機械学習(ML)モデルに対する包括的な実験を行い、バックドア攻撃に対する信頼性の高い堅牢性を示す最初のベンチマークを提供する。
論文 参考訳(メタデータ) (2020-03-19T17:05:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。