論文の概要: Architectural Backdoors in Deep Learning: A Survey of Vulnerabilities, Detection, and Defense
- arxiv url: http://arxiv.org/abs/2507.12919v1
- Date: Thu, 17 Jul 2025 09:02:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.421048
- Title: Architectural Backdoors in Deep Learning: A Survey of Vulnerabilities, Detection, and Defense
- Title(参考訳): ディープラーニングのアーキテクチャバックドア:脆弱性,検出,防御に関する調査
- Authors: Victoria Childress, Josh Collyer, Jodie Knapp,
- Abstract要約: アーキテクチャバックドアは、悪意のあるロジックを直接モデルの計算グラフに埋め込む。
この調査は、アーキテクチャバックドア、コンパイラレベルの操作、ステンドされたAutoMLパイプライン、サプライチェーンの脆弱性に関する調査を集約する。
近年の進歩にもかかわらず、スケーラブルで実践的な防御はいまだに解明されていない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Architectural backdoors pose an under-examined but critical threat to deep neural networks, embedding malicious logic directly into a model's computational graph. Unlike traditional data poisoning or parameter manipulation, architectural backdoors evade standard mitigation techniques and persist even after clean retraining. This survey systematically consolidates research on architectural backdoors, spanning compiler-level manipulations, tainted AutoML pipelines, and supply-chain vulnerabilities. We assess emerging detection and defense strategies, including static graph inspection, dynamic fuzzing, and partial formal verification, and highlight their limitations against distributed or stealth triggers. Despite recent progress, scalable and practical defenses remain elusive. We conclude by outlining open challenges and proposing directions for strengthening supply-chain security, cryptographic model attestations, and next-generation benchmarks. This survey aims to guide future research toward comprehensive defenses against structural backdoor threats in deep learning systems.
- Abstract(参考訳): アーキテクチャのバックドアは、モデルの計算グラフに直接悪意のあるロジックを埋め込むという、過小評価されているが重要な脅威を、ディープニューラルネットワークにもたらす。
従来のデータ中毒やパラメータ操作とは異なり、アーキテクチャバックドアは標準的な緩和技術を回避し、クリーンな再トレーニング後も継続する。
この調査は、アーキテクチャバックドア、コンパイラレベルの操作、ステンドされたAutoMLパイプライン、サプライチェーン脆弱性の調査を体系的に集約する。
静的グラフ検査,動的ファジリング,部分的形式検証など,新たな検出・防御戦略を評価し,分散トリガやステルストリガに対する制限を強調した。
近年の進歩にもかかわらず、スケーラブルで実践的な防御はいまだに解明されていない。
我々は、オープンな課題の概要と、サプライチェーンのセキュリティ強化、暗号モデル検証、次世代ベンチマークの提案を通じて結論付けます。
本調査は,ディープラーニングシステムにおける構造的バックドア脅威に対する包括的防御に向けた今後の研究を導くことを目的としている。
関連論文リスト
- A Survey on Model Extraction Attacks and Defenses for Large Language Models [55.60375624503877]
モデル抽出攻撃は、デプロイされた言語モデルに重大なセキュリティ脅威をもたらす。
この調査は、抽出攻撃と防御攻撃の包括的分類、機能抽出への攻撃の分類、データ抽出の訓練、およびプロンプトターゲット攻撃を提供する。
モデル保護,データプライバシ保護,迅速なターゲット戦略に編成された防御機構について検討し,その効果を異なる展開シナリオで評価する。
論文 参考訳(メタデータ) (2025-06-26T22:02:01Z) - Lazarus Group Targets Crypto-Wallets and Financial Data while employing new Tradecrafts [0.0]
本報告では、悪意のあるソフトウェアサンプルを包括的に分析し、そのアーキテクチャ、行動特性、基礎となる意図を詳述する。
永続メカニズム、コマンド・アンド・コントロール通信、データ流出ルーチンを含むマルウェアの中核機能を識別する。
このマルウェア分析報告は、過去の敵行為を再構築するだけでなく、将来の攻撃を予測し軽減するための堅牢な基盤も確立している。
論文 参考訳(メタデータ) (2025-05-27T20:13:29Z) - PCAP-Backdoor: Backdoor Poisoning Generator for Network Traffic in CPS/IoT Environments [0.6629765271909503]
我々は,PCAPデータセットに対するバックドア中毒攻撃を容易にする新技術であるtextttPCAP-Backdoorを紹介した。
実際のCPS(Cyber-Physical Systems)とIoT(Internet of Things)ネットワークトラフィックデータセットの実験では、攻撃者がトレーニングデータセット全体の1%以下を中毒することで、モデルを効果的にバックドアできることが示されている。
論文 参考訳(メタデータ) (2025-01-26T15:49:34Z) - A Backdoor Attack Scheme with Invisible Triggers Based on Model Architecture Modification [12.393139669821869]
従来のバックドア攻撃では、トレーニングデータに特定のトリガーで悪意のあるサンプルを注入する。
より高度な攻撃は、モデルのアーキテクチャを直接変更する。
本論文では、新たなバックドア攻撃方法を示す。
モデルアーキテクチャ内にバックドアを埋め込んで,目立たない,ステルス的なトリガを生成する機能を備えている。
論文 参考訳(メタデータ) (2024-12-22T07:39:43Z) - A Survey and Evaluation of Adversarial Attacks for Object Detection [11.48212060875543]
深層学習モデルは、信頼できるが誤った予測をすることを欺くような敵対的な例に対して脆弱である。
この脆弱性は、自動運転車、セキュリティ監視、安全クリティカルな検査システムなどの高リスクなアプリケーションに重大なリスクをもたらす。
本稿では,対象検出アーキテクチャに特有の敵攻撃を分類するための新しい分類枠組みを提案する。
論文 参考訳(メタデータ) (2024-08-04T05:22:08Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。