論文の概要: Active learning for fast and slow modeling attacks on Arbiter PUFs
- arxiv url: http://arxiv.org/abs/2308.13645v1
- Date: Fri, 25 Aug 2023 19:34:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 20:07:37.016316
- Title: Active learning for fast and slow modeling attacks on Arbiter PUFs
- Title(参考訳): Arbiter PUFの高速かつ遅いモデリング攻撃のためのアクティブラーニング
- Authors: Vincent Dumoulin, Wenjing Rao, and Natasha Devroye
- Abstract要約: ほとんどのモデリング攻撃では、機械学習アルゴリズムのラベル付きデータとして、チャレンジ-レスポンス-ペア(CRP)のランダムなサブセットが使用される。
SVMアルゴリズムが高速に学習し、遅く学習するのを助けるために、チャレンジセレクションに重点を置いています。
- 参考スコア(独自算出の注目度): 7.8713273072725665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modeling attacks, in which an adversary uses machine learning techniques to
model a hardware-based Physically Unclonable Function (PUF) pose a great threat
to the viability of these hardware security primitives. In most modeling
attacks, a random subset of challenge-response-pairs (CRPs) are used as the
labeled data for the machine learning algorithm. Here, for the arbiter-PUF, a
delay based PUF which may be viewed as a linear threshold function with random
weights (due to manufacturing imperfections), we investigate the role of active
learning in Support Vector Machine (SVM) learning. We focus on challenge
selection to help SVM algorithm learn ``fast'' and learn ``slow''. Our methods
construct challenges rather than relying on a sample pool of challenges as in
prior work. Using active learning to learn ``fast'' (less CRPs revealed, higher
accuracies) may help manufacturers learn the manufactured PUFs more
efficiently, or may form a more powerful attack when the attacker may query the
PUF for CRPs at will. Using active learning to select challenges from which
learning is ``slow'' (low accuracy despite a large number of revealed CRPs) may
provide a basis for slowing down attackers who are limited to overhearing CRPs.
- Abstract(参考訳): 機械学習技術を使ってハードウェアベースのPhysically Unclonable Function(PUF)をモデル化するモデリング攻撃は、これらのハードウェアセキュリティプリミティブの生存可能性に大きな脅威をもたらす。
ほとんどのモデリング攻撃では、機械学習アルゴリズムのラベル付きデータとしてチャレンジ応答ペア(CRP)のランダムなサブセットが使用される。
そこで,arbiter-pufにおいて,ランダム重み付き線形しきい値関数と見なすことができる遅延ベースpufについて,サポートベクタマシン(svm)学習におけるアクティブラーニングの役割について検討する。
我々はsvmアルゴリズムが ``fast'' を学習し ``slow'' を学ぶのを助けるためにチャレンジ選択に焦点を当てる。
我々の手法は、以前の作業のように課題のサンプルプールに頼るのではなく、課題を構築する。
アクティブラーニングを使って'fast'(CRPが明らかにされていない場合、より高い精度)を学習することは、製造元がより効率的にPUFを学習するのに役立つかもしれないし、攻撃者がCRPに対してPUFを問い合わせるときにより強力な攻撃を形成するかもしれない。
アクティブラーニングを使用して'slow'(多くのCRPが明らかにされているにもかかわらず、学習が低い)という課題を選択することで、CRPを過度に聴くことに限定された攻撃者を減速させる基盤を提供することができる。
関連論文リスト
- Multi-agent Reinforcement Learning-based Network Intrusion Detection System [3.4636217357968904]
侵入検知システム(IDS)は,コンピュータネットワークのセキュリティ確保において重要な役割を担っている。
本稿では,自動,効率的,堅牢なネットワーク侵入検出が可能な,新しいマルチエージェント強化学習(RL)アーキテクチャを提案する。
我々のソリューションは、新しい攻撃の追加に対応し、既存の攻撃パターンの変更に効果的に適応するように設計されたレジリエントなアーキテクチャを導入します。
論文 参考訳(メタデータ) (2024-07-08T09:18:59Z) - Designing a Photonic Physically Unclonable Function Having Resilience to Machine Learning Attacks [2.369276238599885]
機械学習(ML)攻撃の訓練に必要なデータセットを生成するための計算PUFモデルについて述べる。
モデル化されたPUFは均一な白色雑音に類似した分布を生成する。
予備的な解析は、PUFが生成する敵ネットワークに類似したレジリエンスを示すことを示唆している。
論文 参考訳(メタデータ) (2024-04-03T03:58:21Z) - InferAligner: Inference-Time Alignment for Harmlessness through
Cross-Model Guidance [56.184255657175335]
我々は,無害アライメントのためのクロスモデルガイダンスを利用する新しい推論時間アライメント手法であるtextbfInferAligner を開発した。
実験結果から,本手法はファイナンス,医学,数学の分野特化モデルに極めて効果的に適用可能であることが示された。
これは有害な命令とジェイルブレイク攻撃の両方のアタック成功率(ASR)を著しく低下させ、下流タスクではほとんど変化のないパフォーマンスを維持している。
論文 参考訳(メタデータ) (2024-01-20T10:41:03Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [71.63186089279218]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - Secrets of RLHF in Large Language Models Part I: PPO [81.01936993929127]
大規模言語モデル (LLMs) は、人工知能の進歩のためのブループリントを定式化した。
人間のフィードバックによる強化学習(RLHF)がこの追求を支える重要な技術パラダイムとして出現する。
本稿では、RLHFの枠組みを解明し、PPOの内部構造を再評価し、PPOアルゴリズムを構成する部分が政策エージェントの訓練にどのように影響するかを考察する。
論文 参考訳(メタデータ) (2023-07-11T01:55:24Z) - Lightweight Strategy for XOR PUFs as Security Primitives for
Resource-constrained IoT device [0.0]
XOR Arbiter PUF (XOR-PUF) は最も研究されているPUFの一つである。
最近の攻撃研究によると、大きなXORサイズを持つXOR-PUFでさえ、マシンラーニング攻撃に対して安全ではない。
本稿では、XOR Arbiter PUF(XOR-PUF)アーキテクチャパラメータの選択と、XOR-PUFの使用方法を組み合わせた戦略を提案する。
論文 参考訳(メタデータ) (2022-10-04T17:12:36Z) - PUF-Phenotype: A Robust and Noise-Resilient Approach to Aid
Intra-Group-based Authentication with DRAM-PUFs Using Machine Learning [10.445311342905118]
機械学習(ML)を用いて,DRAM PUF応答の起源を正確に識別する分類システムを提案する。
特徴抽出のための改良深部畳み込みニューラルネットワーク(CNN)を用いて,最大98%の分類精度を実現した。
論文 参考訳(メタデータ) (2022-07-11T08:13:08Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - Phase Retrieval using Expectation Consistent Signal Recovery Algorithm
based on Hypernetwork [73.94896986868146]
位相検索は現代の計算イメージングシステムにおいて重要な要素である。
近年のディープラーニングの進歩は、堅牢で高速なPRの新たな可能性を開いた。
我々は、既存の制限を克服するために、深層展開のための新しいフレームワークを開発する。
論文 参考訳(メタデータ) (2021-01-12T08:36:23Z) - A Generative Model based Adversarial Security of Deep Learning and
Linear Classifier Models [0.0]
我々は,オートエンコーダモデルを用いた機械学習モデルに対する敵攻撃の軽減手法を提案する。
機械学習モデルに対する敵対的攻撃の背後にある主な考え方は、トレーニングされたモデルを操作することによって誤った結果を生成することである。
また、ディープニューラルネットワークから従来のアルゴリズムに至るまで、様々な攻撃手法に対するオートエンコーダモデルの性能についても紹介した。
論文 参考訳(メタデータ) (2020-10-17T17:18:17Z) - MACER: Attack-free and Scalable Robust Training via Maximizing Certified
Radius [133.47492985863136]
敵対的トレーニングは、堅牢なモデルを学習する最も一般的な方法の1つだが、通常は攻撃に依存し、コストがかかる。
敵の訓練を使わずに頑健なモデルを学習するMACERアルゴリズムを提案する。
すべてのタスクに対してMACERは、最先端の対人訓練アルゴリズムよりもトレーニング時間が少ない。
論文 参考訳(メタデータ) (2020-01-08T05:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。