論文の概要: Stealthy Backdoor Attack to Real-world Models in Android Apps
- arxiv url: http://arxiv.org/abs/2501.01263v1
- Date: Thu, 02 Jan 2025 13:58:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:15:06.890995
- Title: Stealthy Backdoor Attack to Real-world Models in Android Apps
- Title(参考訳): Androidアプリの現実のモデルに対するステルスなバックドア攻撃
- Authors: Jiali Wei, Ming Fan, Xicheng Zhang, Wenjing Jiao, Haijun Wang, Ting Liu,
- Abstract要約: モバイルアプリから抽出した現実世界のディープラーニングモデルに対する、より効果的でステルス的なバックドア攻撃について検討する。
まず,4つの最先端DNNモデルに対するステガノグラフィーによるバックドアアタックの有効性を確認した。
当社のアプローチでは,DeepPayloadよりも平均12.50%高い攻撃成功率を実現しています。
- 参考スコア(独自算出の注目度): 15.804580400017564
- License:
- Abstract: Powered by their superior performance, deep neural networks (DNNs) have found widespread applications across various domains. Many deep learning (DL) models are now embedded in mobile apps, making them more accessible to end users through on-device DL. However, deploying on-device DL to users' smartphones simultaneously introduces several security threats. One primary threat is backdoor attacks. Extensive research has explored backdoor attacks for several years and has proposed numerous attack approaches. However, few studies have investigated backdoor attacks on DL models deployed in the real world, or they have shown obvious deficiencies in effectiveness and stealthiness. In this work, we explore more effective and stealthy backdoor attacks on real-world DL models extracted from mobile apps. Our main justification is that imperceptible and sample-specific backdoor triggers generated by DNN-based steganography can enhance the efficacy of backdoor attacks on real-world models. We first confirm the effectiveness of steganography-based backdoor attacks on four state-of-the-art DNN models. Subsequently, we systematically evaluate and analyze the stealthiness of the attacks to ensure they are difficult to perceive. Finally, we implement the backdoor attacks on real-world models and compare our approach with three baseline methods. We collect 38,387 mobile apps, extract 89 DL models from them, and analyze these models to obtain the prerequisite model information for the attacks. After identifying the target models, our approach achieves an average of 12.50% higher attack success rate than DeepPayload while better maintaining the normal performance of the models. Extensive experimental results demonstrate that our method enables more effective, robust, and stealthy backdoor attacks on real-world models.
- Abstract(参考訳): 優れたパフォーマンスによって、ディープニューラルネットワーク(DNN)は、さまざまなドメインにまたがって広く応用されている。
多くのディープラーニング(DL)モデルがモバイルアプリに組み込まれており、デバイス上のDLを通じてエンドユーザがアクセスしやすくなっている。
しかし、オンデバイスDLをユーザのスマートフォンに同時に展開すると、いくつかのセキュリティ脅威がもたらされる。
主な脅威はバックドア攻撃である。
大規模な研究は、バックドア攻撃を数年間調査し、多くの攻撃アプローチを提案してきた。
しかし、現実世界に展開されたDLモデルに対するバックドア攻撃を調査する研究は少ない。
本研究では,モバイルアプリから抽出した実世界のDLモデルに対する,より効果的でステルスなバックドア攻撃について検討する。
我々の主な正当化は、DNNベースのステガノグラフィーが生み出す、受容不能でサンプル固有のバックドアトリガーは、現実世界のモデルに対するバックドアアタックの有効性を高めることができるということである。
まず,4つの最先端DNNモデルに対するステガノグラフィーによるバックドアアタックの有効性を確認した。
その後,攻撃のステルスネスを体系的に評価・解析し,その知覚が困難であることを確認した。
最後に,実世界のモデルに対するバックドア攻撃を実装し,アプローチを3つのベースライン手法と比較する。
我々は,38,387のモバイルアプリを収集し,89のDLモデルを抽出し,これらのモデルを分析して,攻撃の前提となるモデル情報を取得する。
対象モデルを特定した後、われわれの手法はDeepPayloadよりも平均12.50%高い攻撃成功率を達成すると同時に、モデルの通常の性能を向上する。
大規模な実験結果から,本手法は実世界のモデルに対するより効果的で堅牢でステルス的なバックドア攻撃を可能にすることが示された。
関連論文リスト
- Towards Unified Robustness Against Both Backdoor and Adversarial Attacks [31.846262387360767]
ディープニューラルネットワーク(DNN)は、バックドアと敵の攻撃の両方に対して脆弱であることが知られている。
本稿では,バックドアと敵の攻撃との間には興味深い関係があることを明らかにする。
バックドアと敵の攻撃を同時に防御する新しいプログレッシブ統一防衛アルゴリズムが提案されている。
論文 参考訳(メタデータ) (2024-05-28T07:50:00Z) - TrojFM: Resource-efficient Backdoor Attacks against Very Large Foundation Models [69.37990698561299]
TrojFMは、非常に大きな基礎モデルに適した、新しいバックドア攻撃である。
提案手法では,モデルパラメータのごく一部のみを微調整することでバックドアを注入する。
広範に使われている大規模GPTモデルに対して,TrojFMが効果的なバックドアアタックを起動できることを実証する。
論文 参考訳(メタデータ) (2024-05-27T03:10:57Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Backdoor Attacks on Crowd Counting [63.90533357815404]
クラウドカウント(Crowd counting)は、シーンイメージ内の人数を推定する回帰タスクである。
本稿では,深層学習に基づくクラウドカウントモデルのバックドア攻撃に対する脆弱性について検討する。
論文 参考訳(メタデータ) (2022-07-12T16:17:01Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - DeepPayload: Black-box Backdoor Attack on Deep Learning Models through
Neural Payload Injection [17.136757440204722]
我々は,コンパイルされたディープラーニングモデルに対して,リバースエンジニアリング技術を用いて,極めて実用的なバックドアアタックを導入する。
注入されたバックドアは93.5%の成功率で起動できるが、遅延オーバーヘッドは2ms以下で精度は1.4%以下である。
人気アプリやセキュリティクリティカルアプリなど、攻撃に対して脆弱な54のアプリが見つかりました。
論文 参考訳(メタデータ) (2021-01-18T06:29:30Z) - DeepSweep: An Evaluation Framework for Mitigating DNN Backdoor Attacks
using Data Augmentation [16.455154794893055]
サードパーティプロバイダは、有毒なサンプルをデータセットに注入したり、Deep Learningモデルにバックドアを埋め込むことができる。
異なるバックドア攻撃に対する防御の最適方針を見いだすための体系的アプローチを提案する。
特定政策は,8種類のバックドア攻撃を効果的に軽減し,既存の5つの防御方法より優れる。
論文 参考訳(メタデータ) (2020-12-13T08:51:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。