論文の概要: Designing a Photonic Physically Unclonable Function Having Resilience to Machine Learning Attacks
- arxiv url: http://arxiv.org/abs/2404.02440v1
- Date: Wed, 3 Apr 2024 03:58:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 18:39:40.477927
- Title: Designing a Photonic Physically Unclonable Function Having Resilience to Machine Learning Attacks
- Title(参考訳): 機械学習攻撃に対する耐性を有するフォトニックな物理的に不可避な機能の設計
- Authors: Elena R. Henderson, Jessie M. Henderson, Hiva Shahoei, William V. Oxford, Eric C. Larson, Duncan L. MacFarlane, Mitchell A. Thornton,
- Abstract要約: 機械学習(ML)攻撃の訓練に必要なデータセットを生成するための計算PUFモデルについて述べる。
モデル化されたPUFは均一な白色雑音に類似した分布を生成する。
予備的な解析は、PUFが生成する敵ネットワークに類似したレジリエンスを示すことを示唆している。
- 参考スコア(独自算出の注目度): 2.369276238599885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physically unclonable functions (PUFs) are designed to act as device 'fingerprints.' Given an input challenge, the PUF circuit should produce an unpredictable response for use in situations such as root-of-trust applications and other hardware-level cybersecurity applications. PUFs are typically subcircuits present within integrated circuits (ICs), and while conventional IC PUFs are well-understood, several implementations have proven vulnerable to malicious exploits, including those perpetrated by machine learning (ML)-based attacks. Such attacks can be difficult to prevent because they are often designed to work even when relatively few challenge-response pairs are known in advance. Hence the need for both more resilient PUF designs and analysis of ML-attack susceptibility. Previous work has developed a PUF for photonic integrated circuits (PICs). A PIC PUF not only produces unpredictable responses given manufacturing-introduced tolerances, but is also less prone to electromagnetic radiation eavesdropping attacks than a purely electronic IC PUF. In this work, we analyze the resilience of the proposed photonic PUF when subjected to ML-based attacks. Specifically, we describe a computational PUF model for producing the large datasets required for training ML attacks; we analyze the quality of the model; and we discuss the modeled PUF's susceptibility to ML-based attacks. We find that the modeled PUF generates distributions that resemble uniform white noise, explaining the exhibited resilience to neural-network-based attacks designed to exploit latent relationships between challenges and responses. Preliminary analysis suggests that the PUF exhibits similar resilience to generative adversarial networks, and continued development will show whether more-sophisticated ML approaches better compromise the PUF and -- if so -- how design modifications might improve resilience.
- Abstract(参考訳): 物理的に拘束不能な関数(PUF)は「指紋」として機能するように設計されている。
入力問題を考えると、PUF回路は、root-of-trustアプリケーションや他のハードウェアレベルのサイバーセキュリティアプリケーションのような状況での使用に対して予測不可能な応答を生成するべきである。
PUFは通常、集積回路(IC)内に存在しているサブ回路であり、従来のIC PUFはよく理解されているが、機械学習(ML)ベースの攻撃など、悪意のあるエクスプロイトに対して脆弱性があることが証明されている。
このような攻撃は、比較的少数のチャレンジ-レスポンスペアが事前に知られている場合でも、しばしば機能するように設計されているため、予防が困難である。
したがって、よりレジリエントなPUF設計の必要性とML攻撃の感受性の分析の両方が要求される。
従来、フォトニック集積回路(PIC)のためのPUFを開発した。
PIC PUFは製造開始時の耐久性から予測不可能な応答を発生させるだけでなく、純粋な電子IC PUFよりも電磁波の盗聴攻撃の危険性も低い。
本研究では,MLベースの攻撃を受ける際に提案したフォトニックPUFのレジリエンスを解析する。
具体的には、ML攻撃の訓練に必要な大規模なデータセットを生成するための計算PUFモデルを記述し、モデルの品質を分析し、MLベースの攻撃に対するPUFの感受性について論じる。
モデリングされたPUFは、均一なホワイトノイズに類似した分布を生成し、課題と応答の潜伏関係を利用したニューラルネットワークベースの攻撃に対するレジリエンスを示す。
予備的な分析では、PUFは生成する敵ネットワークに類似したレジリエンスを示しており、継続的な開発は、より洗練されたMLアプローチがPUFを妥協し、もしそうであれば、設計変更がレジリエンスをどのように改善するかを示すだろう。
関連論文リスト
- PhenoAuth: A Novel PUF-Phenotype-based Authentication Protocol for IoT Devices [9.608432807038083]
本研究は,PUF Phenotype の概念に基づく完全耐雑音認証プロトコルを提案する。
デバイス間通信に適した設定で、相互認証とフォワードの秘密性を示す。
論文 参考訳(メタデータ) (2024-03-06T06:04:32Z) - A Photonic Physically Unclonable Function's Resilience to
Multiple-Valued Machine Learning Attacks [2.271444649286985]
非線形関連チャレンジ応答対(CRP)を用いた集積回路の同定
ランダムな確率よりも応答ビットを予測できるモデルをトレーニングするには,約1,000個のCRPが必要であることが判明した。
フォトニックPUFから大量のCRPを取得するという大きな課題を考えると,この攻撃に対するフォトニックPUFのレジリエンスを実証する。
論文 参考訳(メタデータ) (2024-03-02T19:44:19Z) - Attacking Delay-based PUFs with Minimal Adversary Model [13.714598539443513]
Physically Unclonable Functions (PUF)は、軽量デバイス認証のための合理化されたソリューションを提供する。
遅延ベースのArbiter PUFは実装の容易さと膨大なチャレンジスペースを持ち、大きな注目を集めている。
モデリングに抵抗するPUFの開発と、それらに対する機械学習攻撃の考案の間には、研究が偏在している。
論文 参考訳(メタデータ) (2024-03-01T11:35:39Z) - CycPUF: Cyclic Physical Unclonable Function [1.104960878651584]
従来の遅延型PUF設計にフィードバック信号を導入し,より広範な出力動作を実現する。
我々の分析に基づいて、周期PUFは、固定された課題の下で二項、定常状態、発振、擬似ランダムとなる応答を生成する。
提案したサイクリックPUFのセキュリティ向上は、最先端の攻撃に対しても示される。
論文 参考訳(メタデータ) (2024-02-12T22:04:04Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - PUF-Phenotype: A Robust and Noise-Resilient Approach to Aid
Intra-Group-based Authentication with DRAM-PUFs Using Machine Learning [10.445311342905118]
機械学習(ML)を用いて,DRAM PUF応答の起源を正確に識別する分類システムを提案する。
特徴抽出のための改良深部畳み込みニューラルネットワーク(CNN)を用いて,最大98%の分類精度を実現した。
論文 参考訳(メタデータ) (2022-07-11T08:13:08Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Covert Model Poisoning Against Federated Learning: Algorithm Design and
Optimization [76.51980153902774]
フェデレーテッド・ラーニング(FL)はパラメータ伝達中にFLモデルに対する外部攻撃に対して脆弱である。
本稿では,最先端の防御アグリゲーション機構に対処する有効なMPアルゴリズムを提案する。
実験の結果,提案したCMPアルゴリズムは,既存の攻撃機構よりも効果的で,かなり優れていることが示された。
論文 参考訳(メタデータ) (2021-01-28T03:28:18Z) - Estimating Structural Target Functions using Machine Learning and
Influence Functions [103.47897241856603]
統計モデルから特定可能な関数として生じる対象関数の統計的機械学習のための新しい枠組みを提案する。
このフレームワークは問題とモデルに依存しないものであり、応用統計学における幅広い対象パラメータを推定するのに使用できる。
我々は、部分的に観測されていない情報を持つランダム/二重ロバストな問題において、いわゆる粗大化に特に焦点をあてた。
論文 参考訳(メタデータ) (2020-08-14T16:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。