論文の概要: PUF-Phenotype: A Robust and Noise-Resilient Approach to Aid
Intra-Group-based Authentication with DRAM-PUFs Using Machine Learning
- arxiv url: http://arxiv.org/abs/2207.04692v1
- Date: Mon, 11 Jul 2022 08:13:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 23:34:00.330324
- Title: PUF-Phenotype: A Robust and Noise-Resilient Approach to Aid
Intra-Group-based Authentication with DRAM-PUFs Using Machine Learning
- Title(参考訳): PUF-Phenotype:機械学習を用いたグループ内認証支援のためのロバストかつ耐雑音性アプローチ
- Authors: Owen Millwood, Jack Miskelly, Bohao Yang, Prosanta Gope, Elif Kavun,
Chenghua Lin
- Abstract要約: 機械学習(ML)を用いて,DRAM PUF応答の起源を正確に識別する分類システムを提案する。
特徴抽出のための改良深部畳み込みニューラルネットワーク(CNN)を用いて,最大98%の分類精度を実現した。
- 参考スコア(独自算出の注目度): 10.445311342905118
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the demand for highly secure and dependable lightweight systems increases
in the modern world, Physically Unclonable Functions (PUFs) continue to promise
a lightweight alternative to high-cost encryption techniques and secure key
storage. While the security features promised by PUFs are highly attractive for
secure system designers, they have been shown to be vulnerable to various
sophisticated attacks - most notably Machine Learning (ML) based modelling
attacks (ML-MA) which attempt to digitally clone the PUF behaviour and thus
undermine their security. More recent ML-MA have even exploited publicly known
helper data required for PUF error correction in order to predict PUF responses
without requiring knowledge of response data. In response to this, research is
beginning to emerge regarding the authentication of PUF devices with the
assistance of ML as opposed to traditional PUF techniques of storage and
comparison of pre-known Challenge-Response pairs (CRPs). In this article, we
propose a classification system using ML based on a novel `PUF-Phenotype'
concept to accurately identify the origin and determine the validity of noisy
memory derived (DRAM) PUF responses as an alternative to helper data-reliant
denoising techniques. To our best knowledge, we are the first to perform
classification over multiple devices per model to enable a group-based PUF
authentication scheme. We achieve up to 98\% classification accuracy using a
modified deep convolutional neural network (CNN) for feature extraction in
conjunction with several well-established classifiers. We also experimentally
verified the performance of our model on a Raspberry Pi device to determine the
suitability of deploying our proposed model in a resource-constrained
environment.
- Abstract(参考訳): 現代社会では、高度にセキュアで信頼性の高い軽量システムの需要が高まっているため、Physically Unclonable Functions (PUF) は、高コストの暗号化技術とセキュアなキーストレージに代わる軽量な代替手段を約束し続けている。
PUFが約束するセキュリティ機能は、セキュアなシステムデザイナにとって非常に魅力的なものだが、さまざまな高度な攻撃に対して脆弱であることが示されている。
近年のML-MAでは、PUFのエラー訂正に必要なヘルパーデータを利用して、応答データの知識を必要とせずにPUFの応答を予測している。
これに対し、従来のストレージのPUF技術と、既知のチャレンジ・レスポンス・ペア(CRP)の比較とは対照的に、MLの助けを借りてPUFデバイスの認証についての研究が進んでいる。
本稿では,新しいPUF-Phenotypeの概念に基づくMLを用いた分類システムを提案する。
我々の知る限りでは、グループベースのPUF認証方式を実現するために、モデル毎に複数のデバイスにまたがる分類を初めて行う。
改良された深部畳み込みニューラルネットワーク(CNN)を用いて,複数の確立された分類器とともに特徴抽出を行う。
また,本モデルの性能をraspberry piデバイス上で検証し,提案モデルをリソース制約環境にデプロイする可能性について検証した。
関連論文リスト
- Enhancing Security in Federated Learning through Adaptive
Consensus-Based Model Update Validation [2.28438857884398]
本稿では,ラベルフリップ攻撃に対して,FL(Federated Learning)システムを構築するための高度なアプローチを提案する。
本稿では,適応的しきい値設定機構と統合されたコンセンサスに基づく検証プロセスを提案する。
以上の結果から,FLシステムのレジリエンスを高め,ラベルフリップ攻撃の顕著な緩和効果が示唆された。
論文 参考訳(メタデータ) (2024-03-05T20:54:56Z) - FedRFQ: Prototype-Based Federated Learning with Reduced Redundancy,
Minimal Failure, and Enhanced Quality [41.88338945821504]
FedRFQはプロトタイプベースのフェデレーション学習アプローチであり、冗長性を低減し、失敗を最小限に抑え、下位品質を改善することを目的としている。
本稿では,BFT (Byzantine Fault Tolerance) 検出可能な集約アルゴリズムであるBFT-detectを導入する。
論文 参考訳(メタデータ) (2024-01-15T09:50:27Z) - Active learning for fast and slow modeling attacks on Arbiter PUFs [7.8713273072725665]
ほとんどのモデリング攻撃では、機械学習アルゴリズムのラベル付きデータとして、チャレンジ-レスポンス-ペア(CRP)のランダムなサブセットが使用される。
SVMアルゴリズムが高速に学習し、遅く学習するのを助けるために、チャレンジセレクションに重点を置いています。
論文 参考訳(メタデータ) (2023-08-25T19:34:01Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - A Generative Framework for Low-Cost Result Validation of Outsourced
Machine Learning Tasks [4.892092538693841]
我々は、アウトソースされた機械学習ワークロードのリアルタイム検証のための新しいフレームワークであるFidesを提案する。
Fidesは、統計的分析とばらつき測定を使用して、サービスモデルが攻撃を受けている場合、高い確率で識別するクライアント側攻撃検出モデルを備えている。
攻撃検出と再分類モデルの訓練のための生成的逆ネットワークフレームワークを考案した。
論文 参考訳(メタデータ) (2023-03-31T19:17:30Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - A New Security Boundary of Component Differentially Challenged XOR PUFs
Against Machine Learning Modeling Attacks [0.0]
XOR Arbiter PUF(XOR PUF、XOR PUF)は、Arbiter PUFの安全性を改善するために開発されたPUFである。
近年、強力な機械学習攻撃法が発見され、大規模なXPUFを簡単に破壊することができた。
本稿では,XPUFを攻撃するための2つの最も強力な機械学習手法を,CDC-XPUFの2つの手法のパラメータを微調整することによって適用する。
論文 参考訳(メタデータ) (2022-06-02T21:51:39Z) - Robust Semi-supervised Federated Learning for Images Automatic
Recognition in Internet of Drones [57.468730437381076]
プライバシー保護型UAV画像認識のための半教師付きフェデレートラーニング(SSFL)フレームワークを提案する。
異なるカメラモジュールを使用したUAVによって収集されたローカルデータの数、特徴、分布には大きな違いがある。
本稿では,クライアントがトレーニングに参加する頻度,すなわちFedFreqアグリゲーションルールに基づくアグリゲーションルールを提案する。
論文 参考訳(メタデータ) (2022-01-03T16:49:33Z) - A Generalizable Model-and-Data Driven Approach for Open-Set RFF
Authentication [74.63333951647581]
高周波指紋(RFF)は、低コストな物理層認証を実現するための有望な解決策である。
RFF抽出と識別のために機械学習に基づく手法が提案されている。
生受信信号からRFFを抽出するエンド・ツー・エンドのディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-10T03:59:37Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。