論文の概要: Challenging the Security of Logic Locking Schemes in the Era of Deep
Learning: A Neuroevolutionary Approach
- arxiv url: http://arxiv.org/abs/2011.10389v2
- Date: Mon, 30 Nov 2020 08:49:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 05:03:48.711126
- Title: Challenging the Security of Logic Locking Schemes in the Era of Deep
Learning: A Neuroevolutionary Approach
- Title(参考訳): 深層学習における論理ロックの安全性への挑戦--神経進化的アプローチ
- Authors: Dominik Sisejkovic, Farhad Merchant, Lennart M. Reimann, Harshit
Srivastava, Ahmed Hallawa and Rainer Leupers
- Abstract要約: ディープラーニングはロジックロックの領域で導入されている。
私たちはSnapShotを紹介します。これは、ニューラルネットワークを利用した最初のタイプのロジックロックに対する新しい攻撃です。
本研究では,SnapShotが選択した攻撃シナリオに対して平均キー予測精度82.60%を達成することを示す。
- 参考スコア(独自算出の注目度): 0.2982610402087727
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Logic locking is a prominent technique to protect the integrity of hardware
designs throughout the integrated circuit design and fabrication flow. However,
in recent years, the security of locking schemes has been thoroughly challenged
by the introduction of various deobfuscation attacks. As in most research
branches, deep learning is being introduced in the domain of logic locking as
well. Therefore, in this paper we present SnapShot: a novel attack on logic
locking that is the first of its kind to utilize artificial neural networks to
directly predict a key bit value from a locked synthesized gate-level netlist
without using a golden reference. Hereby, the attack uses a simpler yet more
flexible learning model compared to existing work. Two different approaches are
evaluated. The first approach is based on a simple feedforward fully connected
neural network. The second approach utilizes genetic algorithms to evolve more
complex convolutional neural network architectures specialized for the given
task. The attack flow offers a generic and customizable framework for attacking
locking schemes using machine learning techniques. We perform an extensive
evaluation of SnapShot for two realistic attack scenarios, comprising both
reference benchmark circuits as well as silicon-proven RISC-V core modules. The
evaluation results show that SnapShot achieves an average key prediction
accuracy of 82.60% for the selected attack scenario, with a significant
performance increase of 10.49 percentage points compared to the state of the
art. Moreover, SnapShot outperforms the existing technique on all evaluated
benchmarks. The results indicate that the security foundation of common logic
locking schemes is build on questionable assumptions. The conclusions of the
evaluation offer insights into the challenges of designing future logic locking
schemes that are resilient to machine learning attacks.
- Abstract(参考訳): 論理ロックは、集積回路設計と製造フロー全体を通してハードウェア設計の完全性を保護するための顕著な技術である。
しかし、近年では様々な難読化攻撃の導入によって、ロックスキームのセキュリティが徹底的に脅かされている。
多くの研究分野と同様に、ディープラーニングは論理ロックの分野でも導入されている。
そこで,本稿では,論理ロックに対する新たな攻撃であるSnapShotを提案する。この攻撃は,人工ニューラルネットワークを用いて,黄金の基準を使わずに,ロックされた合成ゲートレベルのネットリストから鍵ビット値を直接予測する手法である。
この攻撃は、既存の作業よりもシンプルで柔軟な学習モデルを使用する。
2つの異なるアプローチが評価される。
最初のアプローチは、単純なフィードフォワード完全接続ニューラルネットワークに基づいている。
第2のアプローチは、与えられたタスクに特化したより複雑な畳み込みニューラルネットワークアーキテクチャを進化させるために、遺伝的アルゴリズムを利用する。
攻撃フローは、機械学習技術を使用してロックスキームを攻撃するための汎用的でカスタマイズ可能なフレームワークを提供する。
我々は,参照ベンチマーク回路とシリコン製risc-vコアモジュールの両方を含む,現実的な2つの攻撃シナリオのスナップショットを広範囲に評価する。
評価の結果、スナップショットは選択された攻撃シナリオの平均鍵予測精度が82.60%に達し、その性能向上率は10.49ポイントであった。
さらに、SnapShotは、すべての評価されたベンチマークで既存のテクニックよりも優れています。
その結果,共通論理ロッキングスキームのセキュリティ基盤は疑わしい仮定に基づいて構築されていることが示唆された。
評価の結論は、マシンラーニング攻撃に耐性のある将来の論理ロックスキームを設計する際の課題に関する洞察を提供する。
関連論文リスト
- SubLock: Sub-Circuit Replacement based Input Dependent Key-based Logic Locking for Robust IP Protection [1.804933160047171]
既存のロジックロック技術はSATベースの攻撃に対して脆弱である。
いくつかのSAT耐性論理ロック法が報告されている。
本稿では,新しい入力依存鍵ベースの論理ロック(IDKLL)を提案する。
論文 参考訳(メタデータ) (2024-06-27T11:17:06Z) - DECOR: Enhancing Logic Locking Against Machine Learning-Based Attacks [0.6131022957085439]
論理ロック(LL)は集積回路の有望な知的財産保護対策として注目されている。
機械学習(ML)によって促進された最近の攻撃は、複数のLLスキームで正しいキーを予測する可能性を示している。
本稿では、LL方式におけるロックされた回路網リストと正しい鍵値との相関を著しく低減できるランダム化アルゴリズムに基づく汎用LL拡張手法を提案する。
論文 参考訳(メタデータ) (2024-03-04T07:31:23Z) - LIPSTICK: Corruptibility-Aware and Explainable Graph Neural Network-based Oracle-Less Attack on Logic Locking [1.104960878651584]
我々は、論理ロックに対するニューラルネットワークに基づくオラクルレスアタックを開発し、訓練し、テストする。
我々のモデルは、機械学習モデルがトレーニングプロセスで解釈したものと、それがどのように攻撃を成功させるかを分析するという意味で説明がつく。
論文 参考訳(メタデータ) (2024-02-06T18:42:51Z) - Blockchain Smart Contract Threat Detection Technology Based on Symbolic
Execution [0.0]
永続性の脆弱性は隠蔽され複雑であり、スマートコントラクトに大きな脅威をもたらす。
本稿では,シンボル実行に基づくスマートコントラクト脅威検出技術を提案する。
実験の結果,本手法は検出効率と精度の両方を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-12-24T03:27:03Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Large-Scale Sequential Learning for Recommender and Engineering Systems [91.3755431537592]
本稿では,現在の状況に適応してパーソナライズされたランキングを提供する自動アルゴリズムの設計に焦点を当てる。
前者はSAROSと呼ばれる新しいアルゴリズムを提案し,インタラクションの順序を学習するためのフィードバックの種類を考慮に入れている。
提案手法は, 電力網の故障検出に対する初期アプローチと比較して, 統計的に有意な結果を示す。
論文 参考訳(メタデータ) (2022-05-13T21:09:41Z) - Defensive Tensorization [113.96183766922393]
本稿では,ネットワークの遅延高次分解を利用した対角防御手法であるテンソル防御手法を提案する。
我々は,標準画像分類ベンチマークにおけるアプローチの有効性を実証的に実証した。
我々は,音声タスクとバイナリネットワークを考慮し,ドメイン間のアプローチと低精度アーキテクチャの汎用性を検証した。
論文 参考訳(メタデータ) (2021-10-26T17:00:16Z) - Deceptive Logic Locking for Hardware Integrity Protection against
Machine Learning Attacks [0.6868387710209244]
本稿では,鍵関連構造漏洩に対するロック方式の理論的モデルを提案する。
D-MUX(D-MUX:deceptive multiplexer-based logic-locking scheme)は、機械学習攻撃に対する耐性を持つ。
我々の知る限りでは、D-MUXは、既知のすべての学習ベースの攻撃から保護できる、最初の機械学習-レジリエントなロックスキームである。
論文 参考訳(メタデータ) (2021-07-19T09:08:14Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Closed Loop Neural-Symbolic Learning via Integrating Neural Perception,
Grammar Parsing, and Symbolic Reasoning [134.77207192945053]
従来の手法は強化学習アプローチを用いてニューラルシンボリックモデルを学ぶ。
我々は,脳神経知覚と記号的推論を橋渡しする前に,textbfgrammarモデルをテキストシンボリックとして導入する。
本稿では,トップダウンのヒューマンライクな学習手順を模倣して誤りを伝播する新しいtextbfback-searchアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-11T17:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。