論文の概要: HAMLOCK: HArdware-Model LOgically Combined attacK
- arxiv url: http://arxiv.org/abs/2510.19145v1
- Date: Wed, 22 Oct 2025 00:31:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:14.833682
- Title: HAMLOCK: HArdware-Model LOgically Combined attacK
- Title(参考訳): HAMLOCK: ハードウェアモデルと論理的に組み合わせたattacK
- Authors: Sanskar Amgain, Daniel Lobo, Atri Chatterjee, Swarup Bhunia, Fnu Suya,
- Abstract要約: 本稿では,Hardware-Model Logically Combined Attack (HAMLOCK)を紹介する。
HamLOCKは、ハードウェアとソフトウェアの境界を越えて攻撃ロジックを分散する、はるかにステルスな脅威である。
ハードウェア・ソフトウェア・インタフェースに重大な脆弱性が発見され,新たな層間防御が要求された。
- 参考スコア(独自算出の注目度): 6.047087245941092
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing use of third-party hardware accelerators (e.g., FPGAs, ASICs) for deep neural networks (DNNs) introduces new security vulnerabilities. Conventional model-level backdoor attacks, which only poison a model's weights to misclassify inputs with a specific trigger, are often detectable because the entire attack logic is embedded within the model (i.e., software), creating a traceable layer-by-layer activation path. This paper introduces the HArdware-Model Logically Combined Attack (HAMLOCK), a far stealthier threat that distributes the attack logic across the hardware-software boundary. The software (model) is now only minimally altered by tuning the activations of few neurons to produce uniquely high activation values when a trigger is present. A malicious hardware Trojan detects those unique activations by monitoring the corresponding neurons' most significant bit or the 8-bit exponents and triggers another hardware Trojan to directly manipulate the final output logits for misclassification. This decoupled design is highly stealthy, as the model itself contains no complete backdoor activation path as in conventional attacks and hence, appears fully benign. Empirically, across benchmarks like MNIST, CIFAR10, GTSRB, and ImageNet, HAMLOCK achieves a near-perfect attack success rate with a negligible clean accuracy drop. More importantly, HAMLOCK circumvents the state-of-the-art model-level defenses without any adaptive optimization. The hardware Trojan is also undetectable, incurring area and power overheads as low as 0.01%, which is easily masked by process and environmental noise. Our findings expose a critical vulnerability at the hardware-software interface, demanding new cross-layer defenses against this emerging threat.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)にサードパーティのハードウェアアクセラレータ(FPGA、ASICなど)が増加し、新たなセキュリティ脆弱性が導入されている。
従来のモデルレベルのバックドア攻撃は、入力を特定のトリガーで誤分類するためにモデルの重みだけを害するが、攻撃ロジック全体がモデル(すなわちソフトウェア)内に埋め込まれており、トレーサブル層バイ層アクティベーションパスを作成するため、しばしば検出される。
本稿では、ハードウェアとソフトウェアの境界を越えて攻撃ロジックを分散する極秘の脅威であるHAMLOCK(HArdware-Model Logically Combined Attack)を紹介する。
ソフトウェア(モデル)は、トリガーが存在するとき、少数のニューロンのアクティベーションを調整し、一意に高いアクティベーション値を生成することで、最小限の変更しか行わない。
悪意のあるハードウェアであるTrojanは、対応するニューロンの最も重要なビットまたは8ビット指数を監視してこれらのユニークなアクティベーションを検出し、別のハードウェアであるTrojanをトリガーして、最終的な出力ログを直接操作して誤分類を行う。
この分離された設計は、モデル自体が従来の攻撃のように完全なバックドアアクティベーションパスを含まないため、非常にステルス性が高い。
実証的には、MNIST、CIFAR10、GTSRB、ImageNetなどのベンチマークにおいて、HAMLOCKは、ほぼ完璧な攻撃成功率を達成し、明確な精度を低下させる。
さらに重要なことは、HAMLOCKは適応最適化なしで最先端のモデルレベルの防御を回避している。
トロイの木馬は検出不能で、面積と電力のオーバーヘッドは0.01%と低く、プロセスや環境騒音によって容易に遮蔽される。
私たちの発見は、ハードウェアとソフトウェアのインターフェースにおいて重大な脆弱性を露呈し、この新たな脅威に対する新たな層間防御を必要としています。
関連論文リスト
- InverTune: Removing Backdoors from Multimodal Contrastive Learning Models via Trigger Inversion and Activation Tuning [36.56302680556252]
InverTuneは、最小限の攻撃仮定の下で、マルチモーダルモデルのための最初のバックドアディフェンスフレームワークである。
InverTuneは、3つの主要なコンポーネントを通じてバックドアアーティファクトを効果的に識別し、削除し、バックドアアタックに対する堅牢な保護を実現する。
実験の結果、InverTuneは最先端(SOTA)攻撃に対して平均攻撃成功率(ASR)を97.87%削減した。
論文 参考訳(メタデータ) (2025-06-14T09:08:34Z) - TrojFM: Resource-efficient Backdoor Attacks against Very Large Foundation Models [69.37990698561299]
TrojFMは、非常に大きな基礎モデルに適した、新しいバックドア攻撃である。
提案手法では,モデルパラメータのごく一部のみを微調整することでバックドアを注入する。
広範に使われている大規模GPTモデルに対して,TrojFMが効果的なバックドアアタックを起動できることを実証する。
論文 参考訳(メタデータ) (2024-05-27T03:10:57Z) - Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Disarming Steganography Attacks Inside Neural Network Models [4.750077838548593]
本稿では,AIモデル攻撃の解除と再構築に基づくゼロトラスト防止戦略を提案する。
本研究では,Qint8法とK-LRBP法に基づくモデル精度の低下を最小限に抑えながら,100%の防止率を示す。
論文 参考訳(メタデータ) (2023-09-06T15:18:35Z) - FreeEagle: Detecting Complex Neural Trojans in Data-Free Cases [50.065022493142116]
バックドア攻撃とも呼ばれるディープニューラルネットワークに対するトロイの木馬攻撃は、人工知能に対する典型的な脅威である。
FreeEagleは、複雑なバックドア攻撃を効果的に検出できる最初のデータフリーバックドア検出方法である。
論文 参考訳(メタデータ) (2023-02-28T11:31:29Z) - Hardly Perceptible Trojan Attack against Neural Networks with Bit Flips [51.17948837118876]
ほとんど知覚できないトロイア攻撃(HPT)を呈する。
HPTは、加算ノイズと画素あたりのフロー場を利用して、知覚しにくいトロイの木像を作成する。
より優れた攻撃性能を達成するために,ビットフリップ,付加雑音,流れ場を協調的に最適化することを提案する。
論文 参考訳(メタデータ) (2022-07-27T09:56:17Z) - Don't Knock! Rowhammer at the Backdoor of DNN Models [19.13129153353046]
Rowhammerをフォールトインジェクション法として用いたモデル上で,実際のハードウェア上で実現したエンドツーエンドのバックドアインジェクション攻撃を提案する。
ハードウェアにおけるリアルなバックドアインジェクション攻撃を実現するために,制約付き最適化に基づく新しいネットワークトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-14T19:43:53Z) - An Embarrassingly Simple Approach for Trojan Attack in Deep Neural
Networks [59.42357806777537]
トロイの木馬攻撃は、ハッカーが挿入した隠れトリガーパターンに依存する、デプロイされたディープニューラルネットワーク(DNN)を攻撃することを目的としている。
そこで本研究では,有毒データセットの再学習モデルによりトロイの木馬の挙動を注入する,従来と異なる学習自由攻撃手法を提案する。
提案したTrojanNetには,(1)小さなトリガパターンによって起動し,他の信号に対してサイレントを維持する,(2)モデルに依存しない,ほとんどのDNNに注入可能な,(3)攻撃シナリオを劇的に拡張する,(3)訓練不要のメカニズムは従来のトロイの木馬攻撃方法と比較して大規模なトレーニング作業の削減など,いくつかの優れた特性がある。
論文 参考訳(メタデータ) (2020-06-15T04:58:28Z) - Dynamic Backdoor Attacks Against Machine Learning Models [28.799895653866788]
本研究では,DNN(Random Backdoor,Backdoor Generating Network,BaN)および条件付きBackdoor Generating Network(c-BaN)に対する動的バックドア技術の最初のクラスを提案する。
新たな生成ネットワークに基づくBaNとc-BaNは、アルゴリズムによってトリガを生成する最初の2つのスキームである。
本手法は, バックドアデータに対するほぼ完璧な攻撃性能を実現し, 実用性に欠ける損失を生じさせる。
論文 参考訳(メタデータ) (2020-03-07T22:46:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。