論文の概要: Risk-Aware and Explainable Framework for Ensuring Guaranteed Coverage in Evolving Hardware Trojan Detection
- arxiv url: http://arxiv.org/abs/2312.00009v1
- Date: Sat, 14 Oct 2023 03:30:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 13:35:06.036796
- Title: Risk-Aware and Explainable Framework for Ensuring Guaranteed Coverage in Evolving Hardware Trojan Detection
- Title(参考訳): ハードウェアトロイの木馬検出の安全性確保のためのリスク意識と説明可能なフレームワーク
- Authors: Rahul Vishwakarma, Amin Rezaei,
- Abstract要約: 高リスクで敏感なドメインでは、小さな誤分類さえ受け入れることができない。
本稿では,新たに提案した共形生成対向ネットワークを用いて,ハードウェアトロイの木馬を生成する。
提案手法は、合成および実チップレベルのベンチマークの両方で検証されている。
- 参考スコア(独自算出の注目度): 2.6396287656676733
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As the semiconductor industry has shifted to a fabless paradigm, the risk of hardware Trojans being inserted at various stages of production has also increased. Recently, there has been a growing trend toward the use of machine learning solutions to detect hardware Trojans more effectively, with a focus on the accuracy of the model as an evaluation metric. However, in a high-risk and sensitive domain, we cannot accept even a small misclassification. Additionally, it is unrealistic to expect an ideal model, especially when Trojans evolve over time. Therefore, we need metrics to assess the trustworthiness of detected Trojans and a mechanism to simulate unseen ones. In this paper, we generate evolving hardware Trojans using our proposed novel conformalized generative adversarial networks and offer an efficient approach to detecting them based on a non-invasive algorithm-agnostic statistical inference framework that leverages the Mondrian conformal predictor. The method acts like a wrapper over any of the machine learning models and produces set predictions along with uncertainty quantification for each new detected Trojan for more robust decision-making. In the case of a NULL set, a novel method to reject the decision by providing a calibrated explainability is discussed. The proposed approach has been validated on both synthetic and real chip-level benchmarks and proven to pave the way for researchers looking to find informed machine learning solutions to hardware security problems.
- Abstract(参考訳): 半導体産業がファブレスパラダイムに移行したことにより、様々な生産段階においてハードウェアトロイの木馬が挿入されるリスクも増大した。
近年、ハードウェアのトロイの木馬をより効率的に検出するための機械学習ソリューションの利用が増加傾向にあり、評価指標としてモデルの精度に焦点が当てられている。
しかし、リスクが高くセンシティブなドメインでは、小さな誤分類さえ受け入れることができない。
さらに、特にトロイの木馬が時間とともに進化するとき、理想的なモデルを期待することは非現実的である。
したがって、検出されたトロイの木馬の信頼性を評価するためのメトリクスと、目に見えないものをシミュレートするメカニズムが必要である。
本稿では,新たに提案した共形生成逆数ネットワークを用いてハードウェアトロイの木馬を生成するとともに,モンドリアン型共形予測器を利用した非侵襲的アルゴリズムに依存しない統計的推論フレームワークに基づいて,その検出に効率的なアプローチを提案する。
この手法は、機械学習モデルのいずれかのラッパーとして機能し、より堅牢な意思決定のために、新たに検出されたトロイの木馬ごとに不確実な定量化とともにセット予測を生成する。
NULL セットの場合、キャリブレーションされた説明可能性を提供することで決定を拒否する新しい方法について議論する。
提案されたアプローチは、合成と実際のチップレベルのベンチマークの両方で検証され、ハードウェアセキュリティ問題に対する機械学習のソリューションを見つけようとする研究者の道を開くことが証明された。
関連論文リスト
- Bayesian Learned Models Can Detect Adversarial Malware For Free [28.498994871579985]
対数訓練は有効な方法であるが、大規模データセットにスケールアップするには計算コストがかかる。
特にベイズ式はモデルパラメータの分布を捉えることができ、モデル性能を犠牲にすることなく不確実性を定量化することができる。
ベイズ学習法で不確実性を定量化することで、敵のマルウェアを防御できることがわかった。
論文 参考訳(メタデータ) (2024-03-27T07:16:48Z) - Uncertainty-Aware Hardware Trojan Detection Using Multimodal Deep
Learning [3.118371710802894]
チップ製造の様々な段階でハードウェアトロイの木馬が挿入されるリスクは、ゼロトラスト・ファブレス時代に増大している。
本稿では,ハードウェアトロイの木馬を検出するマルチモーダル深層学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T05:45:51Z) - PerD: Perturbation Sensitivity-based Neural Trojan Detection Framework
on NLP Applications [21.854581570954075]
トロイの木馬の攻撃は被害者にバックドアを埋め込み、入力空間のトリガーによって起動される。
本稿では,入力に特別な摂動を導入する際に,モデル出力のずれを解析し,モデルレベルのトロイの木馬検出フレームワークを提案する。
提案手法の有効性を,TrojAIが作成したNLPモデルのデータセットとTrojaned NLPモデルの公開データセットに示す。
論文 参考訳(メタデータ) (2022-08-08T22:50:03Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Online Defense of Trojaned Models using Misattributions [18.16378666013071]
本稿では,推論時におけるディープニューラルネットワーク上のニューラルトロイの木馬検出手法を提案する。
MNIST, Fashion MNIST, German Traffic Sign Recognition Benchmark で訓練されたモデルを含む,いくつかのベンチマークに対するアプローチを評価する。
論文 参考訳(メタデータ) (2021-03-29T19:53:44Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z) - Cassandra: Detecting Trojaned Networks from Adversarial Perturbations [92.43879594465422]
多くの場合、事前トレーニングされたモデルは、トロイの木馬の振る舞いをモデルに挿入するためにトレーニングパイプラインを中断したかもしれないベンダーから派生している。
本稿では,事前学習したモデルがトロイの木馬か良馬かを検証する手法を提案する。
本手法は,ニューラルネットワークの指紋を,ネットワーク勾配から学習した逆方向の摂動の形でキャプチャする。
論文 参考訳(メタデータ) (2020-07-28T19:00:40Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。