論文の概要: Backdoor Attacks and Defenses in Computer Vision Domain: A Survey
- arxiv url: http://arxiv.org/abs/2509.07504v1
- Date: Tue, 09 Sep 2025 08:38:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.231356
- Title: Backdoor Attacks and Defenses in Computer Vision Domain: A Survey
- Title(参考訳): コンピュータビジョン領域におけるバックドア攻撃と防御:サーベイ
- Authors: Bilal Hussain Abbasi, Yanjun Zhang, Leo Zhang, Shang Gao,
- Abstract要約: バックドア攻撃は、隠された制御可能な振る舞いを機械学習モデルに埋め込む。
本調査は,コンピュータビジョン領域におけるバックドア攻撃と防御に関する文献の急成長を概観するものである。
- 参考スコア(独自算出の注目度): 12.384887829851834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor (trojan) attacks embed hidden, controllable behaviors into machine-learning models so that models behave normally on benign inputs but produce attacker-chosen outputs when a trigger is present. This survey reviews the rapidly growing literature on backdoor attacks and defenses in the computer-vision domain. We introduce a multi-dimensional taxonomy that organizes attacks and defenses by injection stage (dataset poisoning, model/parameter modification, inference-time injection), trigger type (patch, blended/frequency, semantic, transformation), labeling strategy (dirty-label vs. clean-label / feature-collision), representation stage (instance-specific, manifold/class-level, neuron/parameter hijacking, distributed encodings), and target task (classification, detection, segmentation, video, multimodal). For each axis we summarize representative methods, highlight evaluation practices, and discuss where defenses succeed or fail. For example, many classical sanitization and reverse-engineering tools are effective against reusable patch attacks but struggle with input-aware, sample-specific, or parameter-space backdoors and with transfer via compromised pre-trained encoders or hardware bit-flips. We synthesize trends, identify persistent gaps (supply-chain and hardware threats, certifiable defenses, cross-task benchmarks), and propose practical guidelines for threat-aware evaluation and layered defenses. This survey aims to orient researchers and practitioners to the current threat landscape and pressing research directions in secure computer vision.
- Abstract(参考訳): バックドア(トロイジャン)攻撃は、機械学習モデルに隠された制御可能な振る舞いを埋め込んで、モデルが通常、良心的な入力で振る舞うようにし、トリガーが存在する時にアタッカー・チョーゼン出力を生成する。
本調査は,コンピュータビジョン領域におけるバックドア攻撃と防御に関する文献の急成長を概観するものである。
我々は,攻撃と防御をインジェクションステージ(データセット中毒,モデル/パラメータ修正,推論時インジェクション),トリガータイプ(パッチ,ブレンド/周波数,セマンティック,変換),ラベル戦略(dirty-label vs. clean-label / feature-collision),表現ステージ(instance-specific, manifold/class-level,neuron/parameter hijacking, Distributed encodings),ターゲットタスク(classification, detection, segmentation, video, multimodal)によって組織する多次元分類法を提案する。
各軸について、代表的手法を要約し、評価プラクティスを強調し、防御が成功するか失敗するかについて議論する。
例えば、古典的な衛生化やリバースエンジニアリングツールは、再利用可能なパッチ攻撃に対して有効であるが、入力認識、サンプル特定、パラメータ空間のバックドアや、事前訓練されたエンコーダやハードウェアビットフリップによる転送に苦慮している。
我々は、トレンドを合成し、永続的なギャップ(サプライチェーンとハードウェアの脅威、認証されたディフェンス、クロスタスクのベンチマーク)を特定し、脅威認識評価と層状ディフェンスの実践的ガイドラインを提案する。
この調査は、研究者や実践者たちを現在の脅威の風景に誘導し、セキュアなコンピュータビジョンにおける研究の方向性を推し進めることを目的としている。
関連論文リスト
- BlindGuard: Safeguarding LLM-based Multi-Agent Systems under Unknown Attacks [58.959622170433725]
BlindGuardは、攻撃固有のラベルや悪意のある振る舞いに関する事前の知識を必要とせずに学習する、教師なしの防御方法である。
BlindGuardはマルチエージェントシステムにまたがる多様な攻撃タイプ(即時注入、メモリ中毒、ツール攻撃)を効果的に検出する。
論文 参考訳(メタデータ) (2025-08-11T16:04:47Z) - On the Credibility of Backdoor Attacks Against Object Detectors in the Physical World [27.581277955830746]
アプリケーション設定における物理オブジェクトトリガーによるバックドア攻撃の有効性について検討する。
我々は、MORPHingと呼ばれる新しいコスト効率の高い攻撃方法を構築し、検出タスクのユニークな性質を取り入れた。
私たちは、現実世界のバックドア攻撃の広範なビデオテストセットをリリースしました。
論文 参考訳(メタデータ) (2024-08-22T04:29:48Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Temporal-Distributed Backdoor Attack Against Video Based Action
Recognition [21.916002204426853]
ビデオデータに対する、シンプルで効果的なバックドア攻撃を導入する。
我々の提案した攻撃は、変換されたドメインに摂動を加えることで、ビデオフレームに知覚不能で時間的に分散されたトリガーを配置する。
論文 参考訳(メタデータ) (2023-08-21T22:31:54Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Detecting Backdoors in Deep Text Classifiers [43.36440869257781]
本稿では,テキスト分類モデルに対するバックドア攻撃を一般化する,最初の堅牢な防御機構を提案する。
我々の技術は、データ中毒や重毒など、最先端のバックドア攻撃に対する防御に極めて正確です。
論文 参考訳(メタデータ) (2022-10-11T07:48:03Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。