論文の概要: A New Security Boundary of Component Differentially Challenged XOR PUFs
Against Machine Learning Modeling Attacks
- arxiv url: http://arxiv.org/abs/2206.01314v1
- Date: Thu, 2 Jun 2022 21:51:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 15:24:48.207508
- Title: A New Security Boundary of Component Differentially Challenged XOR PUFs
Against Machine Learning Modeling Attacks
- Title(参考訳): 機械学習モデリング攻撃に対する成分差分チャレンジXOR PUFの新しいセキュリティ境界
- Authors: Gaoxiang Li, Khalid T. Mursi, Ahmad O. Aseeri, Mohammed S. Alkatheiri
and Yu Zhuang
- Abstract要約: XOR Arbiter PUF(XOR PUF、XOR PUF)は、Arbiter PUFの安全性を改善するために開発されたPUFである。
近年、強力な機械学習攻撃法が発見され、大規模なXPUFを簡単に破壊することができた。
本稿では,XPUFを攻撃するための2つの最も強力な機械学習手法を,CDC-XPUFの2つの手法のパラメータを微調整することによって適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physical Unclonable Functions (PUFs) are promising security primitives for
resource-constrained network nodes. The XOR Arbiter PUF (XOR PUF or XPUF) is an
intensively studied PUF invented to improve the security of the Arbiter PUF,
probably the most lightweight delay-based PUF. Recently, highly powerful
machine learning attack methods were discovered and were able to easily break
large-sized XPUFs, which were highly secure against earlier machine learning
attack methods. Component-differentially-challenged XPUFs (CDC-XPUFs) are XPUFs
with different component PUFs receiving different challenges. Studies showed
they were much more secure against machine learning attacks than the
conventional XPUFs, whose component PUFs receive the same challenge. But these
studies were all based on earlier machine learning attack methods, and hence it
is not clear if CDC-XPUFs can remain secure under the recently discovered
powerful attack methods. In this paper, the two current most powerful two
machine learning methods for attacking XPUFs are adapted by fine-tuning the
parameters of the two methods for CDC-XPUFs. Attack experiments using both
simulated PUF data and silicon data generated from PUFs implemented on
field-programmable gate array (FPGA) were carried out, and the experimental
results showed that some previously secure CDC-XPUFs of certain circuit
parameter values are no longer secure under the adapted new attack methods,
while many more CDC-XPUFs of other circuit parameter values remain secure.
Thus, our experimental attack study has re-defined the boundary between the
secure region and the insecure region of the PUF circuit parameter space,
providing PUF manufacturers and IoT security application developers with
valuable information in choosing PUFs with secure parameter values.
- Abstract(参考訳): Physical Unclonable Function (PUF)は、リソース制約されたネットワークノードに対するセキュリティプリミティブである。
XOR Arbiter PUF(XOR PUF)は、おそらく最も軽量な遅延ベースのPUFであるArbiter PUFの安全性を改善するために開発されたPUFである。
近年,強力な機械学習攻撃手法が発見され,従来型の機械学習攻撃法に対して高度に安全であった大型xpufを容易に破ることができた。
コンポーネント差分XPUF(CDC-XPUF)は、異なるコンポーネントPUFを持つXPUFである。
研究は、コンポーネントパフが同じ課題を負う従来のxpufsよりも、機械学習攻撃に対してより安全であることを示した。
しかし、これらの研究はいずれも初期の機械学習攻撃法に基づいており、CDC-XPUFが最近発見された強力な攻撃法の下で安全であるかどうかは不明である。
本稿では,XPUFを攻撃するための2つの最も強力な機械学習手法を,CDC-XPUFの2つの手法のパラメータを微調整することによって適用する。
fpga (field-programmable gate array) 上に実装したpufデータとsiliconデータの両方を用いた攻撃実験を行い, 従来セキュアであった特定の回路パラメータ値のcdc-xpufsは, 新たな攻撃手法ではもはや安全ではなく, 他の回路パラメータ値のcdc-xpufsは安全であることを示した。
これにより、PUF回路パラメータ空間のセキュア領域と安全領域の境界を再定義し、PUF製造者とIoTセキュリティアプリケーション開発者に対して、安全なパラメータ値を持つPUFを選択する上で貴重な情報を提供する。
関連論文リスト
- Active learning for fast and slow modeling attacks on Arbiter PUFs [7.8713273072725665]
ほとんどのモデリング攻撃では、機械学習アルゴリズムのラベル付きデータとして、チャレンジ-レスポンス-ペア(CRP)のランダムなサブセットが使用される。
SVMアルゴリズムが高速に学習し、遅く学習するのを助けるために、チャレンジセレクションに重点を置いています。
論文 参考訳(メタデータ) (2023-08-25T19:34:01Z) - Strong Baselines for Parameter Efficient Few-Shot Fine-tuning [50.83426196335385]
FSC (Few-shot Classification) は、事前訓練(メタトレーニング)フェーズの後にクラス毎にいくつかの例を与えられた新しいクラスを学習する。
近年の研究では、新しいテストクラスで事前訓練された視覚変換器(ViT)を微調整することが、FSCにとって強力なアプローチであることが示されている。
しかし、微調整のViTは、時間、計算、ストレージに費用がかかる。
これにより、Transformerのパラメータのごく一部だけを微調整するPEFT法が考案された。
論文 参考訳(メタデータ) (2023-04-04T16:14:39Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Lightweight Strategy for XOR PUFs as Security Primitives for
Resource-constrained IoT device [0.0]
XOR Arbiter PUF (XOR-PUF) は最も研究されているPUFの一つである。
最近の攻撃研究によると、大きなXORサイズを持つXOR-PUFでさえ、マシンラーニング攻撃に対して安全ではない。
本稿では、XOR Arbiter PUF(XOR-PUF)アーキテクチャパラメータの選択と、XOR-PUFの使用方法を組み合わせた戦略を提案する。
論文 参考訳(メタデータ) (2022-10-04T17:12:36Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - PUF-Phenotype: A Robust and Noise-Resilient Approach to Aid
Intra-Group-based Authentication with DRAM-PUFs Using Machine Learning [10.445311342905118]
機械学習(ML)を用いて,DRAM PUF応答の起源を正確に識別する分類システムを提案する。
特徴抽出のための改良深部畳み込みニューラルネットワーク(CNN)を用いて,最大98%の分類精度を実現した。
論文 参考訳(メタデータ) (2022-07-11T08:13:08Z) - Robust Federated Learning via Over-The-Air Computation [48.47690125123958]
オーバー・ザ・エア計算によるモデル更新の簡易な平均化により、学習タスクは悪意のあるクライアントのローカルモデル更新のランダムまたは意図した変更に対して脆弱になる。
本稿では,このような攻撃に対して,フェデレート学習のためのオーバー・ザ・エア計算の利点を保ちながら,ロバストな伝達と集約の枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T19:21:21Z) - Quantum Lock: A Provable Quantum Communication Advantage [2.9562795446317964]
本稿では,Hybrid lock PUFs(HLPUFs)と呼ばれる,セキュアなPUFの汎用設計を提案する。
HLPUFは古典的なPUFを使用し、出力を非直交量子状態にエンコードして、基盤となるCPUFの結果を敵から隠蔽する。
HLPUFは,量子状態の非古典的特性を活用することにより,サーバがチャレンジ応答ペアを再利用し,さらなるクライアント認証を可能にすることを示す。
論文 参考訳(メタデータ) (2021-10-18T17:01:46Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Going Deep: Using deep learning techniques with simplified mathematical
models against XOR BR and TBR PUFs (Attacks and Countermeasures) [0.0]
本稿では,簡易な数学的モデルと深層学習(DL)技術を用いたモデリング攻撃に対するPUFの脆弱性の研究に寄与する。
DLモデリング攻撃は、4入力のXOR BR PUFと4入力のXOR PUFのセキュリティを99%の精度で簡単に破壊できる。
新たな難読化アーキテクチャは、DLモデリング攻撃に対抗するためのステップとして導入され、そのような攻撃に対して大きな抵抗を示した。
論文 参考訳(メタデータ) (2020-09-09T01:41:57Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。