論文の概要: TrojanForge: Generating Adversarial Hardware Trojan Examples Using Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2405.15184v3
- Date: Sun, 08 Dec 2024 22:10:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:49:32.941171
- Title: TrojanForge: Generating Adversarial Hardware Trojan Examples Using Reinforcement Learning
- Title(参考訳): TrojanForge: 強化学習を用いた対向的ハードウェアトロイの木馬の例の生成
- Authors: Amin Sarihi, Peter Jamieson, Ahmad Patooghy, Abdel-Hameed A. Badawy,
- Abstract要約: ハードウェアトロイの木馬問題は、攻撃者とディフェンダーの間の連続したゲームと考えることができる。
機械学習は近年、HT研究の進展において重要な役割を担っている。
TrojanForgeはHT検出器を倒す敵の例を生成する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The Hardware Trojan (HT) problem can be thought of as a continuous game between attackers and defenders, each striving to outsmart the other by leveraging any available means for an advantage. Machine Learning (ML) has recently played a key role in advancing HT research. Various novel techniques, such as Reinforcement Learning (RL) and Graph Neural Networks (GNNs), have shown HT insertion and detection capabilities. HT insertion with ML techniques, specifically, has seen a spike in research activity due to the shortcomings of conventional HT benchmarks and the inherent human design bias that occurs when we create them. This work continues this innovation by presenting a tool called TrojanForge, capable of generating HT adversarial examples that defeat HT detectors; demonstrating the capabilities of GAN-like adversarial tools for automatic HT insertion. We introduce an RL environment where the RL insertion agent interacts with HT detectors in an insertion-detection loop where the agent collects rewards based on its success in bypassing HT detectors. Our results show that this process helps inserted HTs evade various HT detectors, achieving high attack success percentages. This tool provides insight into why HT insertion fails in some instances and how we can leverage this knowledge in defense.
- Abstract(参考訳): ハードウエア・トロイジャン(HT)問題は、攻撃者とディフェンダーの間で連続的なゲームとして考えられ、それぞれが有利な手段として利用可能な手段を生かして相手を追い越そうとしている。
機械学習(ML)は近年、HT研究を進める上で重要な役割を担っている。
Reinforcement Learning (RL) や Graph Neural Networks (GNN) など,さまざまな新しいテクニックがHT挿入と検出機能を示している。
ML技術を用いたHT挿入は、従来のHTベンチマークの欠点と、それらを作成する際に生じる固有のヒューマンデザインバイアスにより、研究活動が急増している。
この研究は、HT検出器を倒すHT敵の例を生成できるTrojanForgeと呼ばれるツールを提示し、自動HT挿入のためのGANのような逆ツールの能力を実証することによって、このイノベーションを継続する。
本稿では,RL挿入剤がHT検出器と相互作用するRL環境について紹介する。
以上の結果から,HTを挿入して様々なHT検出器を回避し,高い攻撃成功率を達成できることが示唆された。
このツールは、いくつかのインスタンスでHT挿入が失敗した理由と、この知識を防御に活用する方法に関する洞察を提供する。
関連論文リスト
- SENTAUR: Security EnhaNced Trojan Assessment Using LLMs Against Undesirable Revisions [17.21926121783922]
ハードウェアトロイジャン(HT)は、ステルスな動作の導入、意図したIC作業の防止、またはサイドチャネルを介して機密データを漏洩することができる。
HTに対処するためには、HTシナリオを迅速に調査することが重要な要件である。
本稿では,登録転送レベル(RTL)設計のためのHTスイートを生成するための大規模言語モデル(LLM)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-17T07:13:06Z) - Trojan Playground: A Reinforcement Learning Framework for Hardware Trojan Insertion and Detection [0.0]
現在のハードウェアトロイジャン(HT)検出技術は、主に限られたHTベンチマークに基づいて開発されている。
本稿では,これらの欠点に対処する最初の自動強化学習(RL) HT挿入検出フレームワークを紹介する。
論文 参考訳(メタデータ) (2023-05-16T16:42:07Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - ATTRITION: Attacking Static Hardware Trojan Detection Techniques Using
Reinforcement Learning [6.87143729255904]
我々は強化学習(RL)を用いた自動でスケーラブルで実用的な攻撃フレームワークATTRITIONを開発した。
ATTRITIONは2つのHT検出カテゴリにわたる8つの検出テクニックを回避し、その挙動を示す。
我々は、ATTRITIONが、広く使われている学術スイートから、オープンソースのMIPSやmor1kxプロセッサ、AESやGPSモジュールなど、より大きな設計まで、さまざまな設計を評価することによって、検出技術を回避する能力を実証する。
論文 参考訳(メタデータ) (2022-08-26T23:47:47Z) - DETERRENT: Detecting Trojans using Reinforcement Learning [8.9149615294509]
ハードウェアトロイの木馬(HTs)は集積回路に対する悪名高い脅威である。
本研究では,指数探索空間を回避し,HTを検出する可能性が最も高い最小限のパターンを返却する強化学習(RL)エージェントを設計する。
論文 参考訳(メタデータ) (2022-08-26T22:09:47Z) - Attention Hijacking in Trojan Transformers [68.04317938014067]
トロイの木馬攻撃はAIシステムに深刻な脅威をもたらす。
トランスフォーマーモデルに関する最近の研究は爆発的な人気を得た。
BERT と ViT の注意機構を通してトロヤ群を明らかにすることは可能か?
論文 参考訳(メタデータ) (2022-08-09T04:05:04Z) - Quarantine: Sparsity Can Uncover the Trojan Attack Trigger for Free [126.15842954405929]
トロイの木馬攻撃はディープニューラルネットワーク(DNN)を脅かし、ほとんどのサンプルで正常に動作させるが、トリガーを付けた入力に対して操作された結果を生成する。
そこで我々は,まず,クリーンな入力において,ほぼ完全なトロイの木馬の情報のみを保存し,かつ,すでに孤立しているサブネットワークに埋め込まれたトリガを復元する,新しいトロイの木馬ネットワーク検出方式を提案する。
論文 参考訳(メタデータ) (2022-05-24T06:33:31Z) - Hardware Trojan Insertion Using Reinforcement Learning [0.0]
本稿では,ハードウェアトロイジャン挿入プロセスを自動化する手段として,強化学習(RL)を利用する。
RLエージェントが設計空間を探索し、挿入されたHTを隠蔽するのに最適な回路位置を見つける。
我々のツールセットは、組み合わせHTをISCAS-85ベンチマークスイートに挿入することができ、HTサイズとトリガー条件のバリエーションがある。
論文 参考訳(メタデータ) (2022-04-09T01:50:03Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z) - Odyssey: Creation, Analysis and Detection of Trojan Models [91.13959405645959]
トロイの木馬攻撃は、一部のトレーニングサンプルにトリガーを挿入してトレーニングパイプラインを妨害し、トリガーを含むサンプルに対してのみ悪意ある動作をするようにモデルを訓練する。
既存のトロイの木馬検出器はトリガーの種類や攻撃について強い仮定をしている。
そこで本研究では,トロヤニング過程の影響を受け,本質的特性の分析に基づく検出器を提案する。
論文 参考訳(メタデータ) (2020-07-16T06:55:00Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。