論文の概要: Poisoning the Pixels: Revisiting Backdoor Attacks on Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2603.16405v1
- Date: Tue, 17 Mar 2026 11:42:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.248662
- Title: Poisoning the Pixels: Revisiting Backdoor Attacks on Semantic Segmentation
- Title(参考訳): セマンティックセグメンテーションでバックドア攻撃を再開
- Authors: Guangsheng Zhang, Huan Tian, Leo Zhang, Tianqing Zhu, Ming Ding, Wanlei Zhou, Bo Liu,
- Abstract要約: 本研究は,セマンティックセグメンテーションに適したバックドア攻撃を系統的に検討する。
本稿では、トリガ設計を最適化し、ラベル操作戦略を適用して攻撃性能を最大化する統合フレームワークBADSEGを紹介する。
我々の研究は、セマンティックセグメンテーションにおけるこれまで見過ごされていたセキュリティの脆弱性を明らかにし、セグメンテーション固有の脅威モデルに合わせたディフェンスの開発を動機付けている。
- 参考スコア(独自算出の注目度): 28.208102468217394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic segmentation models are widely deployed in safety-critical applications such as autonomous driving, yet their vulnerability to backdoor attacks remains largely underexplored. Prior segmentation backdoor studies transfer threat settings from existing image classification tasks, focusing primarily on object-to-background mis-segmentation. In this work, we revisit the threats by systematically examining backdoor attacks tailored to semantic segmentation. We identify four coarse-grained attack vectors (Object-to-Object, Object-to-Background, Background-to-Object, and Background-to-Background attacks), as well as two fine-grained vectors (Instance-Level and Conditional attacks). To formalize these attacks, we introduce BADSEG, a unified framework that optimizes trigger designs and applies label manipulation strategies to maximize attack performance while preserving victim model utility. Extensive experiments across diverse segmentation architectures on benchmark datasets demonstrate that BADSEG achieves high attack effectiveness with minimal impact on clean samples. We further evaluate six representative defenses and find that they fail to reliably mitigate our attacks, revealing critical gaps in current defenses. Finally, we demonstrate that these vulnerabilities persist in recent emerging architectures, including transformer-based networks and the Segment Anything Model (SAM), thereby compromising their security. Our work reveals previously overlooked security vulnerabilities in semantic segmentation, and motivates the development of defenses tailored to segmentation-specific threat models.
- Abstract(参考訳): セマンティックセグメンテーションモデルは、自律運転のような安全クリティカルなアプリケーションに広くデプロイされているが、バックドア攻撃に対するその脆弱性は、ほとんど探索されていない。
従来のセグメンテーションバックドア研究は、既存の画像分類タスクから脅威設定を伝達し、主にオブジェクトと背景のミスセグメンテーションに焦点を当てた。
本研究では,セマンティックセグメンテーションに適したバックドア攻撃を系統的に検討することにより,脅威を再考する。
4つの粗粒度攻撃ベクトル (Object-to-Object, Object-to-Background, background-to-Object, background-to-Background 攻撃) と2つの細粒度ベクトル (インスタンス-Level, Conditional 攻撃) を同定した。
これらの攻撃を形式化するために、我々は、トリガ設計を最適化する統一フレームワークBADSEGを導入し、被害者モデルユーティリティを保ちながら攻撃性能を最大化するためにラベル操作戦略を適用した。
ベンチマークデータセット上の多様なセグメンテーションアーキテクチャにわたる大規模な実験は、BADSEGがクリーンサンプルへの影響を最小限に抑えて高い攻撃効果を達成することを示した。
我々はさらに6つの代表的防衛を評価し、それらが我々の攻撃を確実に緩和することができず、現在の防衛において重大なギャップを露呈することを発見した。
最後に、トランスフォーマーベースのネットワークやSAM(Segment Anything Model)など、最近の新興アーキテクチャにおいて、これらの脆弱性が持続していることを示す。
我々の研究は、セマンティックセグメンテーションにおけるこれまで見過ごされていたセキュリティの脆弱性を明らかにし、セグメンテーション固有の脅威モデルに合わせたディフェンスの開発を動機付けている。
関連論文リスト
- BackdoorAgent: A Unified Framework for Backdoor Attacks on LLM-based Agents [58.83028403414688]
大規模言語モデル(LLM)エージェントは、計画、メモリ、ツールの使用を組み合わせた多段階ワークフローを通じてタスクを実行する。
エージェントワークフローの特定のステージに注入されたバックドアトリガーは、複数の中間状態を通して持続し、下流出力に悪影響を及ぼす可能性がある。
LLMエージェントにおけるバックドア脅威を統一したエージェント中心のビューを提供するモジュールおよびステージアウェアフレームワークである textbfBackdoorAgent を提案する。
論文 参考訳(メタデータ) (2026-01-08T03:49:39Z) - PromptSleuth: Detecting Prompt Injection via Semantic Intent Invariance [10.105673138616483]
大規模言語モデル(LLM)は、仮想アシスタントから自律エージェントに至るまで、現実のアプリケーションにますます統合されている。
攻撃者がパラフレーズ、難読化、マルチタスクのインジェクション戦略で進化するにつれて、既存のベンチマークは、出現する脅威の全スペクトルを捉えるのに十分ではない。
PromptSleuthは,表面的特徴ではなくタスクレベルの意図を推論することで,迅速なインジェクションを検出するセマンティック指向の防衛フレームワークである。
論文 参考訳(メタデータ) (2025-08-28T15:19:07Z) - ConSeg: Contextual Backdoor Attack Against Semantic Segmentation [2.893590030081482]
コンテキストバックドアアタック(ConSeg)という,シンプルで効果的なバックドアアタックを提案する。
私たちの手法は興味深い観察、すなわち、対象クラスが被害者クラスの共起クラスとして設定された場合、被害者クラスはより容易に誤解される」という動機付けがある。
実験の結果,ConSegは既存手法に比べて15.55%のアタック成功率(ASR)の向上を実現していることがわかった。
論文 参考訳(メタデータ) (2025-07-26T10:30:27Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Transferable Attack for Semantic Segmentation [59.17710830038692]
敵が攻撃し、ソースモデルから生成された敵の例がターゲットモデルを攻撃するのに失敗するのを観察します。
本研究では, セマンティックセグメンテーションのためのアンサンブルアタックを提案する。
論文 参考訳(メタデータ) (2023-07-31T11:05:55Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。