論文の概要: Dynamic Mask-Based Backdoor Attack Against Vision AI Models: A Case Study on Mushroom Detection
- arxiv url: http://arxiv.org/abs/2601.18845v1
- Date: Mon, 26 Jan 2026 12:25:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.009435
- Title: Dynamic Mask-Based Backdoor Attack Against Vision AI Models: A Case Study on Mushroom Detection
- Title(参考訳): 動的マスクによる視覚AIモデルに対するバックドア攻撃:マッシュルーム検出を事例として
- Authors: Zeineb Dridi, Jihen Bennaceur, Amine Ben Hassouna,
- Abstract要約: 本稿では,物体検出モデルに特化して設計された動的マスクを用いたバックドア攻撃手法を提案する。
私たちは、悪質なトリガーを埋め込むためにデータセット中毒技術を利用しており、この妥協されたデータセットでトレーニングされたモデルはすべて、バックドア攻撃に対して脆弱です。
当社のアプローチは,静的かつ一貫したパターンに基づく従来のバックドアインジェクション手法を超越している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning has revolutionized numerous tasks within the computer vision field, including image classification, image segmentation, and object detection. However, the increasing deployment of deep learning models has exposed them to various adversarial attacks, including backdoor attacks. This paper presents a novel dynamic mask-based backdoor attack method, specifically designed for object detection models. We exploit a dataset poisoning technique to embed a malicious trigger, rendering any models trained on this compromised dataset vulnerable to our backdoor attack. We particularly focus on a mushroom detection dataset to demonstrate the practical risks posed by such attacks on critical real-life domains. Our work also emphasizes the importance of creating a detailed backdoor attack scenario to illustrate the significant risks associated with the outsourcing practice. Our approach leverages SAM, a recent and powerful image segmentation AI model, to create masks for dynamic trigger placement, introducing a new and stealthy attack method. Through extensive experimentation, we show that our sophisticated attack scenario maintains high accuracy on clean data with the YOLOv7 object detection model while achieving high attack success rates on poisoned samples. Our approach surpasses traditional methods for backdoor injection, which are based on static and consistent patterns. Our findings underscore the urgent need for robust countermeasures to protect deep learning models from these evolving adversarial threats.
- Abstract(参考訳): ディープラーニングは、画像分類、画像分割、オブジェクト検出など、コンピュータビジョン分野における多くのタスクに革命をもたらした。
しかし、ディープラーニングモデルの展開の増加により、バックドア攻撃など、さまざまな敵攻撃に晒されている。
本稿では,物体検出モデルに特化して設計された動的マスクを用いたバックドア攻撃手法を提案する。
私たちは、悪質なトリガーを埋め込むためにデータセット中毒技術を利用しており、この妥協されたデータセットでトレーニングされたモデルはすべて、バックドア攻撃に対して脆弱です。
我々は特にキノコ検出データセットに焦点をあて、重要な実生活ドメインに対する攻撃によって引き起こされる実践的リスクを実証する。
私たちの研究は、アウトソーシングプラクティスに関連する重大なリスクを説明するために、詳細なバックドア攻撃シナリオを作成することの重要性も強調しています。
我々のアプローチでは、最近の強力な画像セグメンテーションAIモデルであるSAMを活用して、動的トリガー配置のためのマスクを作成し、新しいステルス攻撃手法を導入する。
広範囲にわたる実験により,本手法は, YOLOv7オブジェクト検出モデルを用いて, クリーンデータに対して高い精度を維持しつつ, 有毒試料に対する高い攻撃成功率を達成できることを示す。
当社のアプローチは,静的かつ一貫したパターンに基づく従来のバックドアインジェクション手法を超越している。
本研究は,これらの進化する敵対的脅威から深層学習モデルを保護するための堅牢な対策を緊急に必要としていることを明らかにするものである。
関連論文リスト
- Mask-based Invisible Backdoor Attacks on Object Detection [0.0]
ディープラーニングモデルは、バックドア攻撃に弱い。
本研究では,マスクベースのアプローチを用いて,物体検出に対する効果的な視覚的バックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-20T12:27:30Z) - Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Transpose Attack: Stealing Datasets with Bidirectional Training [4.166238443183223]
敵は正統なモデルの下で保護された学習環境からデータセットを抽出できることを示す。
本稿では,感染モデルを検出するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-11-13T15:14:50Z) - SATBA: An Invisible Backdoor Attack Based On Spatial Attention [7.405457329942725]
バックドア攻撃には、隠れたトリガーパターンを含むデータセットに対するDeep Neural Network(DNN)のトレーニングが含まれる。
既存のバックドア攻撃のほとんどは、2つの重大な欠点に悩まされている。
空間的注意とU-netモデルを用いてこれらの制限を克服するSATBAという新しいバックドアアタックを提案する。
論文 参考訳(メタデータ) (2023-02-25T10:57:41Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。