論文の概要: Explainability Methods for Hardware Trojan Detection: A Systematic Comparison
- arxiv url: http://arxiv.org/abs/2601.18696v1
- Date: Mon, 26 Jan 2026 17:13:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.957522
- Title: Explainability Methods for Hardware Trojan Detection: A Systematic Comparison
- Title(参考訳): ハードウェアトロイの木馬検出のための説明可能性法:システム的比較
- Authors: Paul Whitten, Francis Wolff, Chris Papachristou,
- Abstract要約: この研究は、Trust-Hubベンチマークでゲートレベル検出の3つの説明可能性カテゴリを比較した。
特性に基づく分析は、「出力近くの高ファンイン複雑性は潜在的なトリガーを示す」といった回路概念を通して説明を提供する。
事例に基づく推論は、予測とトロイの木馬の訓練の間の97.4%の対応を達成し、前例に基づく正当化を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hardware trojan detection requires accurate identification and interpretable explanations for security engineers to validate and act on results. This work compares three explainability categories for gate-level trojan detection on the Trust-Hub benchmark: (1) domain-aware property-based analysis of 31 circuit-specific features from gate fanin patterns, flip-flop distances, and I/O connectivity; (2) case-based reasoning using k-nearest neighbors for precedent-based explanations; and (3) model-agnostic feature attribution (LIME, SHAP, gradient). Results show different advantages per approach. Property-based analysis provides explanations through circuit concepts like "high fanin complexity near outputs indicates potential triggers." Case-based reasoning achieves 97.4% correspondence between predictions and training exemplars, offering justifications grounded in precedent. LIME and SHAP provide feature attributions with strong inter-method correlation (r=0.94, p<0.001) but lack circuit-level context for validation. XGBoost classification achieves 46.15% precision and 52.17% recall on 11,392 test samples, a 9-fold precision improvement over prior work (Hasegawa et al.: 5.13%) while reducing false positive rates from 5.6% to 0.25%. Gradient-based attribution runs 481 times faster than SHAP but provides similar domain-opaque insights. This work demonstrates that property-based and case-based approaches offer domain alignment and precedent-based interpretability compared to generic feature rankings, with implications for XAI deployment where practitioners must validate ML predictions.
- Abstract(参考訳): ハードウェアトロイの木馬検出は、セキュリティエンジニアが結果を検証し実行するために、正確な識別と解釈可能な説明を必要とする。
本研究は,Trust-Hubベンチマークにおいて,ゲートレベルトロイの木馬検出のための3つの説明可能性カテゴリを比較した。(1)ゲートファインパターン,フリップフロップ距離,I/O接続性から31個の回路特性をドメイン認識した特性解析,(2)前例に基づく説明のためにk-nearest隣人を用いたケースベース推論,(3)モデルに依存しない特徴属性(LIME,SHAP,勾配)。
結果はアプローチ毎に異なる利点を示します。
特性に基づく分析は「出力に近い高いファンイン複雑性は潜在的なトリガーを示す」といった回路概念を通して説明を提供する。
事例に基づく推論は、予測と訓練経験者の間の97.4%の対応を達成し、前例に基づく正当化を提供する。
LIMEとSHAPは、強い金属間相関(r=0.94, p<0.001)を持つ特徴属性を提供するが、検証のための回路レベルのコンテキストは欠如している。
XGBoost分類は、11,392検体で46.15%の精度と52.17%のリコール、9倍の精度向上(長谷川ら:5.13%)、偽陽性率を5.6%から0.25%に下げる。
グラディエントベースの属性はSHAPの481倍の速度で動作します。
この研究は、プロパティベースのアプローチとケースベースのアプローチが、一般的な機能ランキングと比較して、ドメインアライメントと前例ベースの解釈可能性を提供し、実践者がML予測を検証する必要があるXAIデプロイメントに影響を及ぼすことを示した。
関連論文リスト
- How Does Prefix Matter in Reasoning Model Tuning? [57.69882799751655]
推論(数学)、コーディング、安全性、事実性の3つのコアモデル機能にまたがる3つのR1シリーズモデルを微調整します。
その結果,プレフィックス条件付きSFTでは安全性と推論性能が向上し,Safe@1の精度は最大で6%向上した。
論文 参考訳(メタデータ) (2026-01-04T18:04:23Z) - BRIDGE: Building Representations In Domain Guided Program Verification [67.36686119518441]
BRIDGEは、検証をコード、仕様、証明の3つの相互接続ドメインに分解する。
提案手法は, 標準誤差フィードバック法よりも精度と効率を著しく向上することを示す。
論文 参考訳(メタデータ) (2025-11-26T06:39:19Z) - Formal Models and Convergence Analysis for Context-Aware Security Verification [0.0]
本稿では,ML強化適応システムに対する証明可能な保証を確立する,文脈認識型セキュリティ検証のための公式なフレームワークを提案する。
1)適応的検証が成功した場合のサンプル複雑性境界,(2)コンテキストリッチネスと検出能力に関する情報理論制限,(3)MLベースのペイロードジェネレータの収束保証。
論文 参考訳(メタデータ) (2025-10-14T12:21:36Z) - Hound: Relation-First Knowledge Graphs for Complex-System Reasoning in Security Audits [0.0]
Houndは、複雑なコンポーネント間のシステムレベルの推論を改善するリレーショナルファーストグラフエンジンである。
2つめのコントリビューションは、永続的な信念システムである。
論文 参考訳(メタデータ) (2025-09-29T02:46:02Z) - Eigen-1: Adaptive Multi-Agent Refinement with Monitor-Based RAG for Scientific Reasoning [53.45095336430027]
暗黙的な検索と構造化された協調を組み合わせた統合フレームワークを開発する。
Humanity's Last Exam (HLE) Bio/Chem Goldでは,48.3%の精度を実現している。
SuperGPQAとTRQAの結果はドメイン間の堅牢性を確認した。
論文 参考訳(メタデータ) (2025-09-25T14:05:55Z) - Investigating Feature Attribution for 5G Network Intrusion Detection [2.406359246841227]
我々は,XGBoostモデルにより生成された警告の解釈を解析し,SHAPとVoTE-XAIの2つの手法について検討した。
スパーシリティ、それらがどの程度簡潔であるか、安定性、同じ攻撃タイプからのサンプル間でどれだけ一貫性があるか、といった説明を評価するための3つの指標を特定します。
SHAPが選択した特徴とVoTE-XAIが選択した特徴の間に有意な差異が認められたが,VoTE-XAIが選択した上位特徴はいずれも欠落していた。
論文 参考訳(メタデータ) (2025-09-12T12:55:48Z) - Explainable Vulnerability Detection in C/C++ Using Edge-Aware Graph Attention Networks [0.2499907423888049]
本稿では,C/C++コードの脆弱性検出のためのグラフベースのフレームワークであるExplainVulDを提案する。
平均精度88.25パーセント、F1スコア48.23パーセントをReVealデータセット上で30の独立ランで達成している。
論文 参考訳(メタデータ) (2025-07-22T12:49:14Z) - SEAL: Steerable Reasoning Calibration of Large Language Models for Free [58.931194824519935]
大規模言語モデル(LLM)は、拡張チェーン・オブ・ソート(CoT)推論機構を通じて複雑な推論タスクに魅力的な機能を示した。
最近の研究では、CoT推論トレースにかなりの冗長性が示されており、これはモデル性能に悪影響を及ぼす。
我々は,CoTプロセスをシームレスに校正し,高い効率性を示しながら精度を向上する,トレーニング不要なアプローチであるSEALを紹介した。
論文 参考訳(メタデータ) (2025-04-07T02:42:07Z) - Generalized Focal Loss V2: Learning Reliable Localization Quality
Estimation for Dense Object Detection [78.11775981796367]
GFLV2 (ResNet-101) は14.6 FPSで46.2 APを達成し、以前の最先端ATSSベースライン (43.6 AP at 14.6 FPS) をCOCO tt test-devで絶対2.6 APで上回った。
コードはhttps://github.com/implus/GFocalV2.comから入手できる。
論文 参考訳(メタデータ) (2020-11-25T17:06:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。