論文の概要: A New Security Boundary of Component Differentially Challenged XOR PUFs
Against Machine Learning Modeling Attacks
- arxiv url: http://arxiv.org/abs/2206.01314v1
- Date: Thu, 2 Jun 2022 21:51:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 15:24:48.207508
- Title: A New Security Boundary of Component Differentially Challenged XOR PUFs
Against Machine Learning Modeling Attacks
- Title(参考訳): 機械学習モデリング攻撃に対する成分差分チャレンジXOR PUFの新しいセキュリティ境界
- Authors: Gaoxiang Li, Khalid T. Mursi, Ahmad O. Aseeri, Mohammed S. Alkatheiri
and Yu Zhuang
- Abstract要約: XOR Arbiter PUF(XOR PUF、XOR PUF)は、Arbiter PUFの安全性を改善するために開発されたPUFである。
近年、強力な機械学習攻撃法が発見され、大規模なXPUFを簡単に破壊することができた。
本稿では,XPUFを攻撃するための2つの最も強力な機械学習手法を,CDC-XPUFの2つの手法のパラメータを微調整することによって適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physical Unclonable Functions (PUFs) are promising security primitives for
resource-constrained network nodes. The XOR Arbiter PUF (XOR PUF or XPUF) is an
intensively studied PUF invented to improve the security of the Arbiter PUF,
probably the most lightweight delay-based PUF. Recently, highly powerful
machine learning attack methods were discovered and were able to easily break
large-sized XPUFs, which were highly secure against earlier machine learning
attack methods. Component-differentially-challenged XPUFs (CDC-XPUFs) are XPUFs
with different component PUFs receiving different challenges. Studies showed
they were much more secure against machine learning attacks than the
conventional XPUFs, whose component PUFs receive the same challenge. But these
studies were all based on earlier machine learning attack methods, and hence it
is not clear if CDC-XPUFs can remain secure under the recently discovered
powerful attack methods. In this paper, the two current most powerful two
machine learning methods for attacking XPUFs are adapted by fine-tuning the
parameters of the two methods for CDC-XPUFs. Attack experiments using both
simulated PUF data and silicon data generated from PUFs implemented on
field-programmable gate array (FPGA) were carried out, and the experimental
results showed that some previously secure CDC-XPUFs of certain circuit
parameter values are no longer secure under the adapted new attack methods,
while many more CDC-XPUFs of other circuit parameter values remain secure.
Thus, our experimental attack study has re-defined the boundary between the
secure region and the insecure region of the PUF circuit parameter space,
providing PUF manufacturers and IoT security application developers with
valuable information in choosing PUFs with secure parameter values.
- Abstract(参考訳): Physical Unclonable Function (PUF)は、リソース制約されたネットワークノードに対するセキュリティプリミティブである。
XOR Arbiter PUF(XOR PUF)は、おそらく最も軽量な遅延ベースのPUFであるArbiter PUFの安全性を改善するために開発されたPUFである。
近年,強力な機械学習攻撃手法が発見され,従来型の機械学習攻撃法に対して高度に安全であった大型xpufを容易に破ることができた。
コンポーネント差分XPUF(CDC-XPUF)は、異なるコンポーネントPUFを持つXPUFである。
研究は、コンポーネントパフが同じ課題を負う従来のxpufsよりも、機械学習攻撃に対してより安全であることを示した。
しかし、これらの研究はいずれも初期の機械学習攻撃法に基づいており、CDC-XPUFが最近発見された強力な攻撃法の下で安全であるかどうかは不明である。
本稿では,XPUFを攻撃するための2つの最も強力な機械学習手法を,CDC-XPUFの2つの手法のパラメータを微調整することによって適用する。
fpga (field-programmable gate array) 上に実装したpufデータとsiliconデータの両方を用いた攻撃実験を行い, 従来セキュアであった特定の回路パラメータ値のcdc-xpufsは, 新たな攻撃手法ではもはや安全ではなく, 他の回路パラメータ値のcdc-xpufsは安全であることを示した。
これにより、PUF回路パラメータ空間のセキュア領域と安全領域の境界を再定義し、PUF製造者とIoTセキュリティアプリケーション開発者に対して、安全なパラメータ値を持つPUFを選択する上で貴重な情報を提供する。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Designing Short-Stage CDC-XPUFs: Balancing Reliability, Cost, and
Security in IoT Devices [2.28438857884398]
物理的に非閉塞関数(PUF)は、固有のハードウェアのバリエーションからユニークな暗号鍵を生成する。
Arbiter PUFs (APUFs) や XOR Arbiter PUFs (XOR-PUFs) のような従来のPUFは、機械学習(ML)や信頼性ベースの攻撃の影響を受けやすい。
本稿では,信頼性を高めるための事前選択戦略を取り入れたCDC-XPUF設計を提案し,新しい軽量アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-09-26T14:50:20Z) - Reflecting on the State of Rehearsal-free Continual Learning with Pretrained Models [63.11967672725459]
単純かつ軽量なPEFTベースラインによるP-RFCL手法の整合性を示す。
P-RFCL の手法が,単純で軽量な PEFT ベースラインでマッチング可能であることを示す。
論文 参考訳(メタデータ) (2024-06-13T17:57:10Z) - MoE-FFD: Mixture of Experts for Generalized and Parameter-Efficient Face Forgery Detection [54.545054873239295]
ディープフェイクは、最近、国民の間で重大な信頼問題とセキュリティ上の懸念を提起した。
ViT法はトランスの表現性を生かし,優れた検出性能を実現する。
この研究は、汎用的でパラメータ効率のよいViTベースのアプローチであるFace Forgery Detection (MoE-FFD)のためのMixture-of-Expertsモジュールを導入する。
論文 参考訳(メタデータ) (2024-04-12T13:02:08Z) - Attacking Delay-based PUFs with Minimal Adversary Model [13.714598539443513]
Physically Unclonable Functions (PUF)は、軽量デバイス認証のための合理化されたソリューションを提供する。
遅延ベースのArbiter PUFは実装の容易さと膨大なチャレンジスペースを持ち、大きな注目を集めている。
モデリングに抵抗するPUFの開発と、それらに対する機械学習攻撃の考案の間には、研究が偏在している。
論文 参考訳(メタデータ) (2024-03-01T11:35:39Z) - Strong Baselines for Parameter Efficient Few-Shot Fine-tuning [50.83426196335385]
FSC (Few-shot Classification) は、事前訓練(メタトレーニング)フェーズの後にクラス毎にいくつかの例を与えられた新しいクラスを学習する。
近年の研究では、新しいテストクラスで事前訓練された視覚変換器(ViT)を微調整することが、FSCにとって強力なアプローチであることが示されている。
しかし、微調整のViTは、時間、計算、ストレージに費用がかかる。
これにより、Transformerのパラメータのごく一部だけを微調整するPEFT法が考案された。
論文 参考訳(メタデータ) (2023-04-04T16:14:39Z) - Lightweight Strategy for XOR PUFs as Security Primitives for
Resource-constrained IoT device [0.0]
XOR Arbiter PUF (XOR-PUF) は最も研究されているPUFの一つである。
最近の攻撃研究によると、大きなXORサイズを持つXOR-PUFでさえ、マシンラーニング攻撃に対して安全ではない。
本稿では、XOR Arbiter PUF(XOR-PUF)アーキテクチャパラメータの選択と、XOR-PUFの使用方法を組み合わせた戦略を提案する。
論文 参考訳(メタデータ) (2022-10-04T17:12:36Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - PUF-Phenotype: A Robust and Noise-Resilient Approach to Aid
Intra-Group-based Authentication with DRAM-PUFs Using Machine Learning [10.445311342905118]
機械学習(ML)を用いて,DRAM PUF応答の起源を正確に識別する分類システムを提案する。
特徴抽出のための改良深部畳み込みニューラルネットワーク(CNN)を用いて,最大98%の分類精度を実現した。
論文 参考訳(メタデータ) (2022-07-11T08:13:08Z) - Going Deep: Using deep learning techniques with simplified mathematical
models against XOR BR and TBR PUFs (Attacks and Countermeasures) [0.0]
本稿では,簡易な数学的モデルと深層学習(DL)技術を用いたモデリング攻撃に対するPUFの脆弱性の研究に寄与する。
DLモデリング攻撃は、4入力のXOR BR PUFと4入力のXOR PUFのセキュリティを99%の精度で簡単に破壊できる。
新たな難読化アーキテクチャは、DLモデリング攻撃に対抗するためのステップとして導入され、そのような攻撃に対して大きな抵抗を示した。
論文 参考訳(メタデータ) (2020-09-09T01:41:57Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。