論文の概要: Breaking XOR Arbiter PUFs without Reliability Information
- arxiv url: http://arxiv.org/abs/2312.01256v1
- Date: Sun, 3 Dec 2023 01:39:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 13:15:35.014602
- Title: Breaking XOR Arbiter PUFs without Reliability Information
- Title(参考訳): 信頼性情報のないXORアービタPUFの切断
- Authors: Niloufar Sayadi, Phuong Ha Nguyen, Marten van Dijk, Chenglu Jin,
- Abstract要約: 信頼性情報にアクセスできない完全信頼性の高いXOR Arbiter PUFは、同一の分割・コンカレント方式で効率的に攻撃可能であることを示す。
私たちの重要な洞察は、相関する課題の応答もまた、決定境界までの距離を明らかにしていることです。
本攻撃の有効性はPUFシミュレーションとFPGA実装を用いて確認した。
- 参考スコア(独自算出の注目度): 13.358255319545789
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unreliable XOR Arbiter PUFs were broken by a machine learning attack, which targets the underlying Arbiter PUFs individually. However, reliability information from the PUF was required for this attack. We show that, for the first time, a perfectly reliable XOR Arbiter PUF, where no reliability information is accessible, can be efficiently attacked in the same divide-and-conquer manner. Our key insight is that the responses of correlated challenges also reveal their distance to the decision boundary. This leads to a chosen challenge attack on XOR Arbiter PUFs. The effectiveness of our attack is confirmed through PUF simulation and FPGA implementation.
- Abstract(参考訳): 信頼性の低いXOR Arbiter PUFは、基盤となるArbiter PUFを個別にターゲットとする機械学習攻撃によって壊れた。
しかし、この攻撃にはPUFからの信頼性情報が必要だった。
信頼性情報にアクセスできない完全信頼性の高いXOR Arbiter PUFを,この分割対コンカレント方式で効率的に攻撃できることを示す。
私たちの重要な洞察は、相関する課題の応答もまた、決定境界までの距離を明らかにしていることです。
これにより、XOR Arbiter PUFへの挑戦攻撃が選択される。
本攻撃の有効性はPUFシミュレーションとFPGA実装を用いて確認した。
関連論文リスト
- Designing a Photonic Physically Unclonable Function Having Resilience to Machine Learning Attacks [2.369276238599885]
機械学習(ML)攻撃の訓練に必要なデータセットを生成するための計算PUFモデルについて述べる。
モデル化されたPUFは均一な白色雑音に類似した分布を生成する。
予備的な解析は、PUFが生成する敵ネットワークに類似したレジリエンスを示すことを示唆している。
論文 参考訳(メタデータ) (2024-04-03T03:58:21Z) - Attacking Delay-based PUFs with Minimal Adversary Model [13.714598539443513]
Physically Unclonable Functions (PUF)は、軽量デバイス認証のための合理化されたソリューションを提供する。
遅延ベースのArbiter PUFは実装の容易さと膨大なチャレンジスペースを持ち、大きな注目を集めている。
モデリングに抵抗するPUFの開発と、それらに対する機械学習攻撃の考案の間には、研究が偏在している。
論文 参考訳(メタデータ) (2024-03-01T11:35:39Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Lightweight Strategy for XOR PUFs as Security Primitives for
Resource-constrained IoT device [0.0]
XOR Arbiter PUF (XOR-PUF) は最も研究されているPUFの一つである。
最近の攻撃研究によると、大きなXORサイズを持つXOR-PUFでさえ、マシンラーニング攻撃に対して安全ではない。
本稿では、XOR Arbiter PUF(XOR-PUF)アーキテクチャパラメータの選択と、XOR-PUFの使用方法を組み合わせた戦略を提案する。
論文 参考訳(メタデータ) (2022-10-04T17:12:36Z) - A New Security Boundary of Component Differentially Challenged XOR PUFs
Against Machine Learning Modeling Attacks [0.0]
XOR Arbiter PUF(XOR PUF、XOR PUF)は、Arbiter PUFの安全性を改善するために開発されたPUFである。
近年、強力な機械学習攻撃法が発見され、大規模なXPUFを簡単に破壊することができた。
本稿では,XPUFを攻撃するための2つの最も強力な機械学習手法を,CDC-XPUFの2つの手法のパラメータを微調整することによって適用する。
論文 参考訳(メタデータ) (2022-06-02T21:51:39Z) - Adversarial Attacks on ML Defense Models Competition [82.37504118766452]
清華大学のTSAILグループとAlibaba Securityグループがこの競争を組織した。
この競争の目的は、敵の堅牢性を評価するために、新しい攻撃アルゴリズムを動機付けることである。
論文 参考訳(メタデータ) (2021-10-15T12:12:41Z) - Quality of Service Guarantees for Physical Unclonable Functions [90.99207266853986]
ノイズの多い物理的非拘束関数(PUF)出力は、信頼性、セキュア、および秘密鍵合意を促進する。
PUF出力の比率を制御し、対象の信頼性レベルを保証できるサービスパラメータの品質を導入する。
論文 参考訳(メタデータ) (2021-07-12T18:26:08Z) - Adversarial Training with Rectified Rejection [114.83821848791206]
本稿では,信頼度(T-Con)を確実性オラクルとして利用し,信頼度を補正してT-Conを予測することを提案する。
軽度の条件下では、正当性(R-Con)拒絶器と信頼性(R-Con)拒絶器を結合して、不正に分類された入力と正しく分類された入力を区別できることを示す。
論文 参考訳(メタデータ) (2021-05-31T08:24:53Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Going Deep: Using deep learning techniques with simplified mathematical
models against XOR BR and TBR PUFs (Attacks and Countermeasures) [0.0]
本稿では,簡易な数学的モデルと深層学習(DL)技術を用いたモデリング攻撃に対するPUFの脆弱性の研究に寄与する。
DLモデリング攻撃は、4入力のXOR BR PUFと4入力のXOR PUFのセキュリティを99%の精度で簡単に破壊できる。
新たな難読化アーキテクチャは、DLモデリング攻撃に対抗するためのステップとして導入され、そのような攻撃に対して大きな抵抗を示した。
論文 参考訳(メタデータ) (2020-09-09T01:41:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。