論文の概要: Your Compiler is Backdooring Your Model: Understanding and Exploiting Compilation Inconsistency Vulnerabilities in Deep Learning Compilers
- arxiv url: http://arxiv.org/abs/2509.11173v2
- Date: Tue, 16 Sep 2025 02:55:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 11:35:27.001772
- Title: Your Compiler is Backdooring Your Model: Understanding and Exploiting Compilation Inconsistency Vulnerabilities in Deep Learning Compilers
- Title(参考訳): ディープラーニングコンパイラにおけるコンパイル不整合の理解と爆発
- Authors: Simin Chen, Jinjun Peng, Yixin He, Junfeng Yang, Baishakhi Ray,
- Abstract要約: ディープラーニング(DL)コンパイラは、現代のDLシステムにおけるコアインフラストラクチャである。
公式の未修正コンパイラは、コンパイル中にモデルのセマンティクスを変更して、隠れたバックドアを導入することができるだろうか?
逆方向と自然方向の両方について検討し, 逆方向の場合, トリガが事前コンパイルに影響を及ぼすことなく, コンパイル後に有効なバックドアとなる良性モデルを構築する。
- 参考スコア(独自算出の注目度): 28.679695741222318
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) compilers are core infrastructure in modern DL systems, offering flexibility and scalability beyond vendor-specific libraries. This work uncovers a fundamental vulnerability in their design: can an official, unmodified compiler alter a model's semantics during compilation and introduce hidden backdoors? We study both adversarial and natural settings. In the adversarial case, we craft benign models where triggers have no effect pre-compilation but become effective backdoors after compilation. Tested on six models, three commercial compilers, and two hardware platforms, our attack yields 100% success on triggered inputs while preserving normal accuracy and remaining undetected by state-of-the-art detectors. The attack generalizes across compilers, hardware, and floating-point settings. In the natural setting, we analyze the top 100 HuggingFace models (including one with 220M+ downloads) and find natural triggers in 31 models. This shows that compilers can introduce risks even without adversarial manipulation. Our results reveal an overlooked threat: unmodified DL compilers can silently alter model semantics. To our knowledge, this is the first work to expose inherent security risks in DL compiler design, opening a new direction for secure and trustworthy ML.
- Abstract(参考訳): ディープラーニング(DL)コンパイラは、現代のDLシステムのコアインフラストラクチャであり、ベンダー固有のライブラリを超えて柔軟性とスケーラビリティを提供する。
公式の未修正コンパイラは、コンパイル中にモデルのセマンティクスを変更し、隠れたバックドアを導入することができるか?
我々は逆境と自然条件の両方について研究する。
逆向きの場合、我々はトリガーが事前コンパイルに影響を及ぼすことなく、コンパイル後に効果的なバックドアとなる良性モデルを作成する。
我々の攻撃は6つのモデル、3つの商用コンパイラ、2つのハードウェアプラットフォームでテストされ、トリガ入力に対して100%成功し、通常の精度を維持しながら、最先端の検出器によって検出されないままである。
攻撃はコンパイラ、ハードウェア、浮動小数点設定にまたがって一般化される。
自然な環境では、HuggingFaceのトップ100モデル(ダウンロード数2億2000万以上を含む)を分析し、31モデルで自然なトリガーを見つけます。
これは、コンパイラが敵の操作なしにリスクを発生させることができることを示している。
修正されていないDLコンパイラは、静かにモデルセマンティクスを変更することができる。
私たちの知る限り、これはDLコンパイラ設計における固有のセキュリティリスクを明らかにし、安全で信頼性の高いMLのための新たな方向性を開く最初の作業です。
関連論文リスト
- Decompiling Smart Contracts with a Large Language Model [51.49197239479266]
Etherscanの78,047,845のスマートコントラクトがデプロイされているにも関わらず(2025年5月26日現在)、わずか767,520 (1%)がオープンソースである。
この不透明さは、オンチェーンスマートコントラクトバイトコードの自動意味解析を必要とする。
バイトコードを可読でセマンティックに忠実なSolidityコードに変換する,先駆的な逆コンパイルパイプラインを導入する。
論文 参考訳(メタデータ) (2025-06-24T13:42:59Z) - Robust Anti-Backdoor Instruction Tuning in LVLMs [53.766434746801366]
大規模視覚言語モデル(LVLM)のための軽量で認証に依存しない防御フレームワークについて紹介する。
私たちのフレームワークは、命令チューニングの下で、アダプタモジュールとテキスト埋め込み層のみを微調整します。
Flickr30kとMSCOCOに対する7つの攻撃に対する実験は、我々の攻撃の成功率をほぼゼロに低下させることを示した。
論文 参考訳(メタデータ) (2025-06-04T01:23:35Z) - Exploiting the Vulnerability of Large Language Models via Defense-Aware Architectural Backdoor [0.24335447922683692]
基盤となるモデルアーキテクチャ内に隠蔽する新しいタイプのバックドアアタックを導入します。
モデルアーキテクチャレイヤのアドオンモジュールは、入力トリガトークンの存在を検出し、レイヤの重みを変更することができる。
我々は,5つの大言語データセットの2つのモデルアーキテクチャ設定を用いて,攻撃方法を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-09-03T14:54:16Z) - Evil from Within: Machine Learning Backdoors through Hardware Trojans [51.81518799463544]
バックドアは、自動運転車のようなセキュリティクリティカルなシステムの整合性を損なう可能性があるため、機械学習に深刻な脅威をもたらす。
私たちは、機械学習のための一般的なハードウェアアクセラレーターに完全に存在するバックドアアタックを導入します。
我々は,Xilinx Vitis AI DPUにハードウェアトロイの木馬を埋め込むことにより,攻撃の実現可能性を示す。
論文 参考訳(メタデータ) (2023-04-17T16:24:48Z) - ImpNet: Imperceptible and blackbox-undetectable backdoors in compiled
neural networks [18.337267366258818]
データ準備およびモデルトレーニング段階における安全対策を回避するため,コンパイル中にバックドアを追加することができることを示す。
攻撃者は、コンパイル中に既存の重みベースのバックドアを挿入できるだけでなく、ImpNetのような新しい重みに依存しないバックドアも挿入できる。
ImpNetを含むいくつかのバックドアは、挿入され、他の場所で削除されるステージにおいてのみ確実に検出できるため、重大な課題となる。
論文 参考訳(メタデータ) (2022-09-30T21:59:24Z) - Architectural Backdoors in Neural Networks [27.315196801989032]
モデルアーキテクチャの内部に隠れる新しい種類のバックドアアタックを導入します。
これらのバックドアの実装は簡単で、例えばバックドアモデルアーキテクチャ用のオープンソースコードを公開している。
私たちは、モデルアーキテクチャのバックドアが真の脅威であり、他のアプローチとは異なり、ゼロから完全な再トレーニングに耐えられることを実証しています。
論文 参考訳(メタデータ) (2022-06-15T22:44:03Z) - Hidden Killer: Invisible Textual Backdoor Attacks with Syntactic Trigger [48.59965356276387]
本稿では,テキストバックドア攻撃の引き金として構文構造を用いることを提案する。
我々は、トリガーベースアタック法が同等のアタック性能を達成できることを示すため、広範囲な実験を行った。
また,本研究の結果から,テキストバックドア攻撃の重篤さと有害性も明らかとなった。
論文 参考訳(メタデータ) (2021-05-26T08:54:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。