論文の概要: Exploiting Logic Locking for a Neural Trojan Attack on Machine Learning
Accelerators
- arxiv url: http://arxiv.org/abs/2304.06017v1
- Date: Wed, 12 Apr 2023 17:55:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 14:08:42.737875
- Title: Exploiting Logic Locking for a Neural Trojan Attack on Machine Learning
Accelerators
- Title(参考訳): 機械学習加速器に対するニューラルトロイの木馬攻撃のための論理ロックの爆発
- Authors: Hongye Xu, Dongfang Liu, Cory Merkel, Michael Zuzack
- Abstract要約: 論理ロックは、保護するニューラルアクセラレーターのセキュリティを損なうためにどのように使われるかを示す。
具体的には、不正鍵による決定論的誤りが、どのようにしてニューラルトロイジャンスタイルのバックドアを生成するかを示す。
- 参考スコア(独自算出の注目度): 3.441021278275805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Logic locking has been proposed to safeguard intellectual property (IP)
during chip fabrication. Logic locking techniques protect hardware IP by making
a subset of combinational modules in a design dependent on a secret key that is
withheld from untrusted parties. If an incorrect secret key is used, a set of
deterministic errors is produced in locked modules, restricting unauthorized
use. A common target for logic locking is neural accelerators, especially as
machine-learning-as-a-service becomes more prevalent. In this work, we explore
how logic locking can be used to compromise the security of a neural
accelerator it protects. Specifically, we show how the deterministic errors
caused by incorrect keys can be harnessed to produce neural-trojan-style
backdoors. To do so, we first outline a motivational attack scenario where a
carefully chosen incorrect key, which we call a trojan key, produces
misclassifications for an attacker-specified input class in a locked
accelerator. We then develop a theoretically-robust attack methodology to
automatically identify trojan keys. To evaluate this attack, we launch it on
several locked accelerators. In our largest benchmark accelerator, our attack
identified a trojan key that caused a 74\% decrease in classification accuracy
for attacker-specified trigger inputs, while degrading accuracy by only 1.7\%
for other inputs on average.
- Abstract(参考訳): チップ製造中に知的財産権(IP)を保護するために論理ロックが提案されている。
論理ロック技術は、信頼できない関係者の秘密鍵に依存する設計において、組み合わせモジュールのサブセットを作成することでハードウェアIPを保護する。
不正なシークレットキーを使用する場合、ロックされたモジュールで決定論的エラーが生成され、不正な使用が制限される。
論理ロックの一般的なターゲットは、特にマシンラーニング・アズ・ア・サービスの普及に伴って、ニューラルアクセラレータである。
そこで本研究では,神経アクセラレーションのセキュリティを損なうために,論理ロックを利用する方法について検討する。
具体的には,不正鍵による決定論的誤りをニューラルトロイの木馬型のバックドアに活用する方法を示す。
そこで,我々はまず,ロックされたアクセラレーションにおいて,攻撃者が特定した入力クラスに対して,慎重に選択した不正なキーが誤分類されるような動機付け攻撃シナリオを概説する。
次に,トロイの木馬鍵を自動的に識別する理論的ロバスト攻撃手法を開発した。
この攻撃を評価するために、いくつかのロックされたアクセラレーターで起動する。
我々の最大のベンチマークアクセラレーターでは、攻撃者が特定したトリガー入力の分類精度が74倍に低下するトロイの木鍵を特定し、他の入力では平均1.7倍に低下した。
関連論文リスト
- LOTUS: Evasive and Resilient Backdoor Attacks through Sub-Partitioning [49.174341192722615]
バックドア攻撃は、ディープラーニングアプリケーションに重大なセキュリティ脅威をもたらす。
近年の研究では、特殊な変換機能によって作られたサンプル特異的に見えないトリガーを用いた攻撃が導入されている。
我々は、回避性とレジリエンスの両方に対処するために、新しいバックドアアタックLOTUSを導入する。
論文 参考訳(メタデータ) (2024-03-25T21:01:29Z) - LIPSTICK: Corruptibility-Aware and Explainable Graph Neural Network-based Oracle-Less Attack on Logic Locking [1.104960878651584]
我々は、論理ロックに対するニューラルネットワークに基づくオラクルレスアタックを開発し、訓練し、テストする。
我々のモデルは、機械学習モデルがトレーニングプロセスで解釈したものと、それがどのように攻撃を成功させるかを分析するという意味で説明がつく。
論文 参考訳(メタデータ) (2024-02-06T18:42:51Z) - Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Evil from Within: Machine Learning Backdoors through Hardware Trojans [72.99519529521919]
バックドアは、自動運転車のようなセキュリティクリティカルなシステムの整合性を損なう可能性があるため、機械学習に深刻な脅威をもたらす。
私たちは、機械学習のための一般的なハードウェアアクセラレーターに完全に存在するバックドアアタックを導入します。
我々は,Xilinx Vitis AI DPUにハードウェアトロイの木馬を埋め込むことにより,攻撃の実現可能性を示す。
論文 参考訳(メタデータ) (2023-04-17T16:24:48Z) - Trojan Horse Training for Breaking Defenses against Backdoor Attacks in
Deep Learning [7.3007220721129364]
バックドアを含むMLモデルは、トロイの木馬モデルと呼ばれる。
現在のシングルターゲットバックドア攻撃では、ターゲットクラス毎に1つのトリガーが必要である。
我々は、単一のトリガが複数のターゲットクラスに誤分類をもたらすような、より一般的な新しい攻撃を導入する。
論文 参考訳(メタデータ) (2022-03-25T02:54:27Z) - An integrated Auto Encoder-Block Switching defense approach to prevent
adversarial attacks [0.0]
逆入力サンプルに対する最先端のニューラルネットワークの脆弱性は、劇的に増大している。
本稿では,自動エンコーダとブロックスイッチングアーキテクチャを組み合わせたディフェンスアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-11T10:58:24Z) - Deceptive Logic Locking for Hardware Integrity Protection against
Machine Learning Attacks [0.6868387710209244]
本稿では,鍵関連構造漏洩に対するロック方式の理論的モデルを提案する。
D-MUX(D-MUX:deceptive multiplexer-based logic-locking scheme)は、機械学習攻撃に対する耐性を持つ。
我々の知る限りでは、D-MUXは、既知のすべての学習ベースの攻撃から保護できる、最初の機械学習-レジリエントなロックスキームである。
論文 参考訳(メタデータ) (2021-07-19T09:08:14Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Challenging the Security of Logic Locking Schemes in the Era of Deep
Learning: A Neuroevolutionary Approach [0.2982610402087727]
ディープラーニングはロジックロックの領域で導入されている。
私たちはSnapShotを紹介します。これは、ニューラルネットワークを利用した最初のタイプのロジックロックに対する新しい攻撃です。
本研究では,SnapShotが選択した攻撃シナリオに対して平均キー予測精度82.60%を達成することを示す。
論文 参考訳(メタデータ) (2020-11-20T13:03:19Z) - An Embarrassingly Simple Approach for Trojan Attack in Deep Neural
Networks [59.42357806777537]
トロイの木馬攻撃は、ハッカーが挿入した隠れトリガーパターンに依存する、デプロイされたディープニューラルネットワーク(DNN)を攻撃することを目的としている。
そこで本研究では,有毒データセットの再学習モデルによりトロイの木馬の挙動を注入する,従来と異なる学習自由攻撃手法を提案する。
提案したTrojanNetには,(1)小さなトリガパターンによって起動し,他の信号に対してサイレントを維持する,(2)モデルに依存しない,ほとんどのDNNに注入可能な,(3)攻撃シナリオを劇的に拡張する,(3)訓練不要のメカニズムは従来のトロイの木馬攻撃方法と比較して大規模なトレーニング作業の削減など,いくつかの優れた特性がある。
論文 参考訳(メタデータ) (2020-06-15T04:58:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。