論文の概要: Breaking XOR Arbiter PUFs with Chosen Challenge Attack
- arxiv url: http://arxiv.org/abs/2312.01256v2
- Date: Sat, 26 Apr 2025 23:06:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:51.591633
- Title: Breaking XOR Arbiter PUFs with Chosen Challenge Attack
- Title(参考訳): チョーセンチャレンジアタックによるXORアービタPUFの破壊
- Authors: Niloufar Sayadi, Phuong Ha Nguyen, Marten van Dijk, Chenglu Jin,
- Abstract要約: XOR Arbiter PUFは2007年に強力なPUFとして導入され、2015年に機械学習(ML)攻撃で故障した。
textbffor が完全に信頼性の高い XOR Arbiter PUF を分割コンカレントで攻撃できることを示す。
これにより、信頼性情報やサイドチャネル情報なしでも、大きなXOR Arbiter PUFを効率的に攻撃することができる。
- 参考スコア(独自算出の注目度): 13.358255319545789
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The XOR Arbiter PUF was introduced as a strong PUF in 2007 and was broken in 2015 by a Machine Learning (ML) attack, which allows the underlying Arbiter PUFs to be modeled individually by exploiting reliability information of the measured responses. To mitigate the reliability-based attacks, state-of-the-art understanding shows that the reliability of individual Arbiter PUFs and the overall XOR Arbiter PUF can be boosted to an arbitrarily high level, thus rendering all known reliability-based ML attacks infeasible; alternatively, an access control interface around the XOR Arbiter PUF can prevent the same challenge-response pairs from being accessed repeatedly, thus eliminating the leakage of reliability information. We show that, \textbf{for the first time, a perfectly reliable XOR Arbiter PUF can be successfully attacked in a divide-and-conquer manner}, meaning each underlying Arbiter PUF in an XOR Arbiter PUF can be attacked individually. This allows us to attack large XOR Arbiter PUFs efficiently, even without reliability information or any side-channel information. Our key insight is that, instead of reliability information, the responses of highly correlated challenges also reveal how close the responses are to the response decision boundary. This leads to a \textit{chosen challenge attack} on XOR Arbiter PUFs by carefully choosing correlated challenges to measure and aggregate the collected information. We validate our attack by using PUF simulation, as well as an XOR Arbiter PUF implemented on FPGA. We also demonstrate that our chosen challenge methodology is compatible with the state-of-the-art combined gradient-based multi-objective optimization attack. Finally, we discuss an effective countermeasure that can prevent our attack but with a relatively large area overhead compared to the PUF itself.
- Abstract(参考訳): XOR Arbiter PUFは2007年に強力なPUFとして導入され、2015年に機械学習(ML)攻撃によって破壊された。
信頼性ベースの攻撃を緩和するため、最先端の理解では、個々のArbiter PUFと全体的なXOR Arbiter PUFの信頼性を任意に高いレベルに向上させることで、既知の信頼性ベースのML攻撃を無効にすることができる。
XOR Arbiter PUF は XOR Arbiter PUF の基盤となる各 Arbiter PUF を個別に攻撃することができる。
これにより、信頼性情報やサイドチャネル情報なしでも、大きなXOR Arbiter PUFを効率的に攻撃することができる。
我々の重要な洞察は、信頼性情報の代わりに、非常に相関の深い課題の応答が、応答決定境界にどれだけ近いかを明らかにすることである。
これにより、XOR Arbiter PUF に対する \textit{chosen challenge} が、収集された情報を測定し、集約するための相関した課題を慎重に選択する。
我々はFPGA上に実装されたXOR Arbiter PUFと同様にPUFシミュレーションを用いて攻撃を検証する。
また,我々の選択した課題手法が,最先端のグラデーションベース多目的最適化攻撃と互換性があることを実証した。
最後に,攻撃を防止できる効果的な対策について検討するが,PUF自体と比較して比較的大きな面積のオーバーヘッドがある。
関連論文リスト
- Designing a Photonic Physically Unclonable Function Having Resilience to Machine Learning Attacks [2.369276238599885]
機械学習(ML)攻撃の訓練に必要なデータセットを生成するための計算PUFモデルについて述べる。
モデル化されたPUFは均一な白色雑音に類似した分布を生成する。
予備的な解析は、PUFが生成する敵ネットワークに類似したレジリエンスを示すことを示唆している。
論文 参考訳(メタデータ) (2024-04-03T03:58:21Z) - Attacking Delay-based PUFs with Minimal Adversary Model [13.714598539443513]
Physically Unclonable Functions (PUF)は、軽量デバイス認証のための合理化されたソリューションを提供する。
遅延ベースのArbiter PUFは実装の容易さと膨大なチャレンジスペースを持ち、大きな注目を集めている。
モデリングに抵抗するPUFの開発と、それらに対する機械学習攻撃の考案の間には、研究が偏在している。
論文 参考訳(メタデータ) (2024-03-01T11:35:39Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Lightweight Strategy for XOR PUFs as Security Primitives for
Resource-constrained IoT device [0.0]
XOR Arbiter PUF (XOR-PUF) は最も研究されているPUFの一つである。
最近の攻撃研究によると、大きなXORサイズを持つXOR-PUFでさえ、マシンラーニング攻撃に対して安全ではない。
本稿では、XOR Arbiter PUF(XOR-PUF)アーキテクチャパラメータの選択と、XOR-PUFの使用方法を組み合わせた戦略を提案する。
論文 参考訳(メタデータ) (2022-10-04T17:12:36Z) - PUF-Phenotype: A Robust and Noise-Resilient Approach to Aid
Intra-Group-based Authentication with DRAM-PUFs Using Machine Learning [10.445311342905118]
機械学習(ML)を用いて,DRAM PUF応答の起源を正確に識別する分類システムを提案する。
特徴抽出のための改良深部畳み込みニューラルネットワーク(CNN)を用いて,最大98%の分類精度を実現した。
論文 参考訳(メタデータ) (2022-07-11T08:13:08Z) - A New Security Boundary of Component Differentially Challenged XOR PUFs
Against Machine Learning Modeling Attacks [0.0]
XOR Arbiter PUF(XOR PUF、XOR PUF)は、Arbiter PUFの安全性を改善するために開発されたPUFである。
近年、強力な機械学習攻撃法が発見され、大規模なXPUFを簡単に破壊することができた。
本稿では,XPUFを攻撃するための2つの最も強力な機械学習手法を,CDC-XPUFの2つの手法のパラメータを微調整することによって適用する。
論文 参考訳(メタデータ) (2022-06-02T21:51:39Z) - Adversarial Attacks on ML Defense Models Competition [82.37504118766452]
清華大学のTSAILグループとAlibaba Securityグループがこの競争を組織した。
この競争の目的は、敵の堅牢性を評価するために、新しい攻撃アルゴリズムを動機付けることである。
論文 参考訳(メタデータ) (2021-10-15T12:12:41Z) - Quality of Service Guarantees for Physical Unclonable Functions [90.99207266853986]
ノイズの多い物理的非拘束関数(PUF)出力は、信頼性、セキュア、および秘密鍵合意を促進する。
PUF出力の比率を制御し、対象の信頼性レベルを保証できるサービスパラメータの品質を導入する。
論文 参考訳(メタデータ) (2021-07-12T18:26:08Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - Adversarial Training with Rectified Rejection [114.83821848791206]
本稿では,信頼度(T-Con)を確実性オラクルとして利用し,信頼度を補正してT-Conを予測することを提案する。
軽度の条件下では、正当性(R-Con)拒絶器と信頼性(R-Con)拒絶器を結合して、不正に分類された入力と正しく分類された入力を区別できることを示す。
論文 参考訳(メタデータ) (2021-05-31T08:24:53Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Going Deep: Using deep learning techniques with simplified mathematical
models against XOR BR and TBR PUFs (Attacks and Countermeasures) [0.0]
本稿では,簡易な数学的モデルと深層学習(DL)技術を用いたモデリング攻撃に対するPUFの脆弱性の研究に寄与する。
DLモデリング攻撃は、4入力のXOR BR PUFと4入力のXOR PUFのセキュリティを99%の精度で簡単に破壊できる。
新たな難読化アーキテクチャは、DLモデリング攻撃に対抗するためのステップとして導入され、そのような攻撃に対して大きな抵抗を示した。
論文 参考訳(メタデータ) (2020-09-09T01:41:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。