論文の概要: Towards Stealthy and Effective Backdoor Attacks on Lane Detection: A Naturalistic Data Poisoning Approach
- arxiv url: http://arxiv.org/abs/2508.15778v1
- Date: Mon, 04 Aug 2025 07:13:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-31 21:54:20.522223
- Title: Towards Stealthy and Effective Backdoor Attacks on Lane Detection: A Naturalistic Data Poisoning Approach
- Title(参考訳): レーン検出における静的かつ効果的なバックドア攻撃に向けて--自然主義的データポジショニングアプローチ
- Authors: Yifan Liao, Yuxin Cao, Yedi Zhang, Wentao He, Yan Xiao, Xianglong Du, Zhiyong Huang, Jin Song Dong,
- Abstract要約: ディープラーニングに基づく車線検出は、自動運転と運転支援システムにおいて重要な役割を果たす。
LDの既存のバックドア攻撃法は、トリガーの人工的かつ顕著な性質のために、限られた実用性を示すことが多い。
自然主義的なバックドアトリガを生成するための新しい拡散型データ中毒フレームワークDBALDを紹介する。
- 参考スコア(独自算出の注目度): 21.709351855331594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based lane detection (LD) plays a critical role in autonomous driving and advanced driver assistance systems. However, its vulnerability to backdoor attacks presents a significant security concern. Existing backdoor attack methods on LD often exhibit limited practical utility due to the artificial and conspicuous nature of their triggers. To address this limitation and investigate the impact of more ecologically valid backdoor attacks on LD models, we examine the common data poisoning attack and introduce DBALD, a novel diffusion-based data poisoning framework for generating naturalistic backdoor triggers. DBALD comprises two key components: optimal trigger position finding and stealthy trigger generation. Given the insight that attack performance varies depending on the trigger position, we propose a heatmap-based method to identify the optimal trigger location, with gradient analysis to generate attack-specific heatmaps. A region-based editing diffusion process is then applied to synthesize visually plausible triggers within the most susceptible regions identified previously. Furthermore, to ensure scene integrity and stealthy attacks, we introduce two loss strategies: one for preserving lane structure and another for maintaining the consistency of the driving scene. Consequently, compared to existing attack methods, DBALD achieves both a high attack success rate and superior stealthiness. Extensive experiments on 4 mainstream LD models show that DBALD exceeds state-of-the-art methods, with an average success rate improvement of +10.87% and significantly enhanced stealthiness. The experimental results highlight significant practical challenges in ensuring model robustness against real-world backdoor threats in LD.
- Abstract(参考訳): ディープラーニングに基づく車線検出(LD)は、自動運転と高度な運転支援システムにおいて重要な役割を果たす。
しかし、バックドア攻撃に対する脆弱性は、重大なセキュリティ上の懸念を示している。
LDの既存のバックドア攻撃法は、トリガーの人工的かつ顕著な性質のために、限られた実用性を示すことが多い。
この制限に対処し、より生態学的に有効なバックドア攻撃がLDモデルに与える影響を調べるために、一般的なデータ中毒攻撃を調査し、自然主義的なバックドアトリガを生成する新しい拡散ベースのデータ中毒フレームワークであるDBALDを紹介した。
DBALDは、最適トリガー位置探索とステルストリガー生成という、2つの重要なコンポーネントから構成される。
攻撃性能はトリガー位置によって異なるという知見を踏まえ,最適なトリガー位置を特定するためのヒートマップベースの手法を提案し,攻撃固有のヒートマップを生成するための勾配解析を行った。
次に、領域ベースの編集拡散プロセスを適用し、これまで同定された最も感受性の高い領域内で視覚的に可視なトリガーを合成する。
さらに,シーンの完全性と盗難攻撃を確保するため,車線構造を保全するための2つの損失戦略と,運転シーンの一貫性を維持するための2つの損失戦略を導入する。
その結果、既存の攻撃方法と比較して、DBALDは高い攻撃成功率と優れたステルスネスの両方を達成する。
4つの主要なLDモデルに対する大規模な実験により、DBALDは最先端の手法を超え、平均成功率は+10.87%、ステルス性は著しく向上した。
実験結果は、LDにおける現実世界のバックドア脅威に対するモデルロバスト性を確保するための重要な実践的課題を浮き彫りにした。
関連論文リスト
- DeTrigger: A Gradient-Centric Approach to Backdoor Attack Mitigation in Federated Learning [8.745529957589039]
Federated Learning(FL)は、ローカルデータのプライバシを保持しながら、分散デバイス間の協調的なモデルトレーニングを可能にする。
しかし、FLの分散された性質は、特にバックドアアタックをモデル化するための脆弱性も開放する。
DeTriggerは、スケーラブルで効率的なバックドアロバストなフェデレーション学習フレームワークである。
論文 参考訳(メタデータ) (2024-11-19T04:12:14Z) - BEEAR: Embedding-based Adversarial Removal of Safety Backdoors in Instruction-tuned Language Models [57.5404308854535]
大型言語モデル(LLM)における安全バックドア攻撃は、正常な相互作用中の検出を回避しながら、安全でない振る舞いをステルス的に引き起こすことができる。
モデル埋め込み空間において,バックドアトリガーが比較的均一なドリフトを引き起こすという知見を活かした緩和手法であるBEEARを提案する。
両レベル最適化手法は、不要な振る舞いを誘発する普遍的な埋め込み摂動を特定し、モデルパラメータを調整し、これらの摂動に対する安全な振舞いを強化する。
論文 参考訳(メタデータ) (2024-06-24T19:29:47Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Demystifying Poisoning Backdoor Attacks from a Statistical Perspective [35.30533879618651]
バックドア攻撃は、そのステルス性や潜在的に深刻な影響により、重大なセキュリティリスクを引き起こす。
本稿では,一定のトリガを組み込んだバックドア攻撃の有効性を評価する。
我々の導出した理解は、識別モデルと生成モデルの両方に適用できる。
論文 参考訳(メタデータ) (2023-10-16T19:35:01Z) - Stealthy Backdoor Attack via Confidence-driven Sampling [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - LEAT: Towards Robust Deepfake Disruption in Real-World Scenarios via
Latent Ensemble Attack [11.764601181046496]
生成モデルによって作成された悪意のある視覚コンテンツであるディープフェイクは、社会にますます有害な脅威をもたらす。
近年のディープフェイクの損傷を積極的に軽減するために, 逆方向の摂動を用いてディープフェイクモデルの出力を妨害する研究が進められている。
そこで本研究では,Latent Ensemble ATtack (LEAT) と呼ばれる簡易かつ効果的なディスラプション手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T07:00:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。