論文の概要: Hardware-Triggered Backdoors
- arxiv url: http://arxiv.org/abs/2601.21902v2
- Date: Sat, 31 Jan 2026 17:10:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 15:03:50.794446
- Title: Hardware-Triggered Backdoors
- Title(参考訳): ハードウェアトリガーバックドア
- Authors: Jonas Möller, Erik Imgrund, Thorsten Eisenhofer, Konrad Rieck,
- Abstract要約: 機械学習モデルにおけるバックドア作成には,数値的なバリエーションが有効であることを示す。
我々は、これらのハードウェアトリガー付きバックドアが、一般的なGPUアクセラレータ間で確実に作成可能であることを実証的に実証した。
- 参考スコア(独自算出の注目度): 6.460066327567415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models are routinely deployed on a wide range of computing hardware. Although such hardware is typically expected to produce identical results, differences in its design can lead to small numerical variations during inference. In this work, we show that these variations can be exploited to create backdoors in machine learning models. The core idea is to shape the model's decision function such that it yields different predictions for the same input when executed on different hardware. This effect is achieved by locally moving the decision boundary close to a target input and then refining numerical deviations to flip the prediction on selected hardware. We empirically demonstrate that these hardware-triggered backdoors can be created reliably across common GPU accelerators. Our findings reveal a novel attack vector affecting the use of third-party models, and we investigate different defenses to counter this threat.
- Abstract(参考訳): 機械学習モデルは、広範囲のコンピューティングハードウェアに定期的にデプロイされる。
このようなハードウェアは一般的に同じ結果をもたらすことが期待されているが、その設計の違いは推論中に小さな数値的なバリエーションをもたらす可能性がある。
本研究は,機械学習モデルにおけるバックドア生成のために,これらのバリエーションを利用することができることを示す。
中心となる考え方は、異なるハードウェア上で実行される場合、同じ入力に対して異なる予測を行うように、モデルの決定関数を形成することである。
この効果は、目標入力に近い決定境界を局所的に移動させ、次いで数値偏差を精製して、選択したハードウェア上での予測を反転させることによって達成される。
我々は、これらのハードウェアトリガー付きバックドアが、一般的なGPUアクセラレータ間で確実に作成可能であることを実証的に実証した。
本研究は,サードパーティモデルの使用に影響を及ぼす新たな攻撃ベクトルを明らかにし,この脅威に対する防御策について検討した。
関連論文リスト
- Architectural Backdoors for Within-Batch Data Stealing and Model Inference Manipulation [9.961238260113916]
建築用バックドアの最近の進歩を基盤とした,新しいバックドアのクラスを紹介する。
このような攻撃は実現可能であるだけでなく、危険なほど効果的であることを示す。
本稿では,この新たな攻撃ベクトルに対する正式な保証を提供する決定論的緩和戦略を提案する。
論文 参考訳(メタデータ) (2025-05-23T19:28:45Z) - Model Pairing Using Embedding Translation for Backdoor Attack Detection on Open-Set Classification Tasks [63.269788236474234]
バックドア検出のためのオープンセット分類タスクにモデルペアを用いることを提案する。
このスコアは、異なるアーキテクチャのモデルがあるにもかかわらず、バックドアの存在を示す指標であることを示している。
この技術は、オープンセット分類タスク用に設計されたモデル上のバックドアの検出を可能にするが、文献ではほとんど研究されていない。
論文 参考訳(メタデータ) (2024-02-28T21:29:16Z) - Evil from Within: Machine Learning Backdoors through Hardware Trojans [51.81518799463544]
バックドアは、自動運転車のようなセキュリティクリティカルなシステムの整合性を損なう可能性があるため、機械学習に深刻な脅威をもたらす。
私たちは、機械学習のための一般的なハードウェアアクセラレーターに完全に存在するバックドアアタックを導入します。
我々は,Xilinx Vitis AI DPUにハードウェアトロイの木馬を埋め込むことにより,攻撃の実現可能性を示す。
論文 参考訳(メタデータ) (2023-04-17T16:24:48Z) - Planting Undetectable Backdoors in Machine Learning Models [14.592078676445201]
悪意ある学習者が検出不能なバックドアを分類器に組み込む方法を示す。
適切な"バックドアキー"がなければ、そのメカニズムは隠され、計算に拘束されたオブザーバによって検出できない。
検出不能なバックドアを植え付けるための2つのフレームワークを示す。
論文 参考訳(メタデータ) (2022-04-14T13:55:21Z) - Don't Knock! Rowhammer at the Backdoor of DNN Models [19.13129153353046]
Rowhammerをフォールトインジェクション法として用いたモデル上で,実際のハードウェア上で実現したエンドツーエンドのバックドアインジェクション攻撃を提案する。
ハードウェアにおけるリアルなバックドアインジェクション攻撃を実現するために,制約付き最適化に基づく新しいネットワークトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-14T19:43:53Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Can Adversarial Weight Perturbations Inject Neural Backdoors? [22.83199547214051]
敵対的機械学習は、ニューラルネットワークのいくつかのセキュリティリスクを露呈している。
モデル重みの逆方向摂動を,元のモデルの予測に対する複合的損失を用いて導入する。
実験の結果,バックドアはモデル重量値の平均相対変化が極めて小さい状態で注入可能であることがわかった。
論文 参考訳(メタデータ) (2020-08-04T18:26:13Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。