論文の概要: Unified Framework for Qualifying Security Boundary of PUFs Against Machine Learning Attacks
- arxiv url: http://arxiv.org/abs/2601.04697v1
- Date: Thu, 08 Jan 2026 08:07:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.098162
- Title: Unified Framework for Qualifying Security Boundary of PUFs Against Machine Learning Attacks
- Title(参考訳): マシンラーニング攻撃に対するPUFのセキュリティ境界の統一フレームワーク
- Authors: Hongming Fei, Zilong Hu, Prosanta Gope, Biplab Sikdar,
- Abstract要約: 機械学習攻撃に対するPUFセキュリティを評価するためのフレームワークを提案する。
未知の課題に対する応答を予測する際の敵の優位性を数学的に特徴づける。
提案手法はPUFのレジリエンスを体系的に定量化し、微妙なセキュリティ上の違いを捉え、PUFの実用的展開に対して実用的な理論的根拠を持つセキュリティ保証を提供する。
- 参考スコア(独自算出の注目度): 9.32232144417346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physical Unclonable Functions (PUFs) serve as lightweight, hardware-intrinsic entropy sources widely deployed in IoT security applications. However, delay-based PUFs are vulnerable to Machine Learning Attacks (MLAs), undermining their assumed unclonability. There are no valid metrics for evaluating PUF MLA resistance, but empirical modelling experiments, which lack theoretical guarantees and are highly sensitive to advances in machine learning techniques. To address the fundamental gap between PUF designs and security qualifications, this work proposes a novel, formal, and unified framework for evaluating PUF security against modelling attacks by providing security lower bounds, independent of specific attack models or learning algorithms. We mathematically characterise the adversary's advantage in predicting responses to unseen challenges based solely on observed challenge-response pairs (CRPs), formulating the problem as a conditional probability estimation over the space of candidate PUFs. We present our analysis on previous "broken" PUFs, e.g., Arbiter PUFs, XOR PUFs, Feed-Forward PUFs, and for the first time compare their MLA resistance in a formal way. In addition, we evaluate the currently "secure" CT PUF, and show its security boundary. We demonstrate that the proposed approach systematically quantifies PUF resilience, captures subtle security differences, and provides actionable, theoretically grounded security guarantees for the practical deployment of PUFs.
- Abstract(参考訳): Physical Unclonable Functions(PUF)は、IoTセキュリティアプリケーションに広くデプロイされる軽量でハードウェア固有のエントロピーソースとして機能する。
しかし、遅延ベースのPUFは機械学習アタック(MLA)に対して脆弱であり、想定される不規則性を損なう。
PUF MLA抵抗を評価するための有効な指標はないが、理論的保証がなく、機械学習技術の進歩に非常に敏感な経験的モデリング実験である。
本研究は、PUF設計とセキュリティ資格の基本的なギャップを解決するために、特定の攻撃モデルや学習アルゴリズムに依存しないセキュリティの下限を提供することにより、モデリング攻撃に対するPUFのセキュリティを評価するための、新しい、フォーマルで統一されたフレームワークを提案する。
我々は,観測された課題応答対 (CRP) のみに基づく未確認課題に対する応答の予測における敵の優位性を数学的に特徴付け,その問題を候補PUFの空間上の条件付き確率推定として定式化する。
本稿では,従来のPUF,例えばArbiter PUFs,XOR PUFs,Feed-Forward PUFsについて解析を行い,MLA抵抗を形式的に比較した。
また,現在「安全な」CT PUFを評価し,そのセキュリティ境界を示す。
提案手法はPUFのレジリエンスを体系的に定量化し、微妙なセキュリティ上の違いを捉え、PUFの実用的展開に対して実用的な理論的根拠を持つセキュリティ保証を提供する。
関連論文リスト
- GuardFed: A Trustworthy Federated Learning Framework Against Dual-Facet Attacks [56.983319121358555]
フェデレートラーニング(FL)は、プライバシ保護のための協調モデルトレーニングを可能にするが、敵の行動に弱いままである。
本稿では,予測精度とグループフェアネスを同時に損なう新たな脅威モデルであるデュアル顔攻撃(DFA)を紹介する。
本稿では,少量のクリーンサーバデータを用いて,公正な参照モデルを維持する自己適応型防衛フレームワークであるGuardFedを提案する。
論文 参考訳(メタデータ) (2025-11-12T13:02:45Z) - Saffron-1: Safety Inference Scaling [69.61130284742353]
SAFFRONは、安全保証のために明示的に調整された、新しい推論スケーリングパラダイムである。
我々のアプローチの中心は、要求される報酬モデルの評価を著しく削減する乗算報酬モデル(MRM)の導入である。
トレーニング済みの多機能報酬モデル(Saffron-1)とそれに伴うトークンレベルの安全報酬データセット(Safety4M)を公開します。
論文 参考訳(メタデータ) (2025-06-06T18:05:45Z) - SPoRt -- Safe Policy Ratio: Certified Training and Deployment of Task Policies in Model-Free RL [54.022106606140774]
本研究では,モデルフリーでエピソードな環境において,新しいタスク固有ポリシーの安全性特性に違反する確率に制約を課す理論的結果を示す。
この境界は、時間的に拡張された性質(安全性の他に)や堅牢な制御問題にも適用できる。
本研究は,このトレードオフを実証し,経験的違反率から得られる理論的境界と後続境界とを比較した実験結果である。
論文 参考訳(メタデータ) (2025-04-08T19:09:07Z) - A novel reliability attack of Physical Unclonable Functions [1.9336815376402723]
Physical Unclonable Functions(PUF)は、IoTデバイスのための有望なセキュリティプリミティブとして登場している。
その強みにもかかわらず、PUFは従来のおよび信頼性ベースの攻撃を含む機械学習(ML)攻撃に対して脆弱である。
論文 参考訳(メタデータ) (2024-05-21T18:34:14Z) - The Pitfalls and Promise of Conformal Inference Under Adversarial Attacks [90.52808174102157]
医療画像や自律運転などの安全クリティカルな応用においては、高い敵の堅牢性を維持し、潜在的敵の攻撃から保護することが不可欠である。
敵対的に訓練されたモデルに固有の不確実性に関して、注目すべき知識ギャップが残っている。
本研究では,共形予測(CP)の性能を標準対向攻撃の文脈で検証することにより,ディープラーニングモデルの不確実性について検討する。
論文 参考訳(メタデータ) (2024-05-14T18:05:19Z) - Designing a Photonic Physically Unclonable Function Having Resilience to Machine Learning Attacks [2.369276238599885]
機械学習(ML)攻撃の訓練に必要なデータセットを生成するための計算PUFモデルについて述べる。
モデル化されたPUFは均一な白色雑音に類似した分布を生成する。
予備的な解析は、PUFが生成する敵ネットワークに類似したレジリエンスを示すことを示唆している。
論文 参考訳(メタデータ) (2024-04-03T03:58:21Z) - PhenoAuth: A Novel PUF-Phenotype-based Authentication Protocol for IoT Devices [9.608432807038083]
本研究は,PUF Phenotype の概念に基づく完全耐雑音認証プロトコルを提案する。
デバイス間通信に適した設定で、相互認証とフォワードの秘密性を示す。
論文 参考訳(メタデータ) (2024-03-06T06:04:32Z) - Attacking Delay-based PUFs with Minimal Adversary Model [13.714598539443513]
Physically Unclonable Functions (PUF)は、軽量デバイス認証のための合理化されたソリューションを提供する。
遅延ベースのArbiter PUFは実装の容易さと膨大なチャレンジスペースを持ち、大きな注目を集めている。
モデリングに抵抗するPUFの開発と、それらに対する機械学習攻撃の考案の間には、研究が偏在している。
論文 参考訳(メタデータ) (2024-03-01T11:35:39Z) - Weak Supervision Performance Evaluation via Partial Identification [46.73061437177238]
Programmatic Weak Supervision (PWS) は、地上の真理ラベルに直接アクセスすることなく、教師付きモデルトレーニングを可能にする。
本稿では,モデル評価を部分的同定問題としてフレーミングすることで,この問題に対処する新しい手法を提案する。
提案手法は,従来の弱監督評価手法において,ラベル付きデータを必要とせず,重要な指標に信頼性のあるバウンダリを導出する。
論文 参考訳(メタデータ) (2023-12-07T07:15:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。