論文の概要: Beyond Boundaries: A Comprehensive Survey of Transferable Attacks on AI Systems
- arxiv url: http://arxiv.org/abs/2311.11796v2
- Date: Mon, 12 May 2025 11:25:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.52319
- Title: Beyond Boundaries: A Comprehensive Survey of Transferable Attacks on AI Systems
- Title(参考訳): 境界を越えて: AIシステムに対する転送可能な攻撃に関する総合的な調査
- Authors: Guangjing Wang, Ce Zhou, Yuanda Wang, Bocheng Chen, Hanqing Guo, Qiben Yan,
- Abstract要約: 転送可能な攻撃は、セキュリティ、プライバシー、システム完全性に深刻なリスクをもたらす。
この調査は、7つの主要なカテゴリにわたる転送可能な攻撃に関する、最初の包括的なレビューを提供する。
本稿では,AIシステムへのトランスファー可能な攻撃の基盤となるメカニズムと実践的意味について検討する。
- 参考スコア(独自算出の注目度): 8.584570228761503
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As Artificial Intelligence (AI) systems increasingly underpin critical applications, from autonomous vehicles to biometric authentication, their vulnerability to transferable attacks presents a growing concern. These attacks, designed to generalize across instances, domains, models, tasks, modalities, or even hardware platforms, pose severe risks to security, privacy, and system integrity. This survey delivers the first comprehensive review of transferable attacks across seven major categories, including evasion, backdoor, data poisoning, model stealing, model inversion, membership inference, and side-channel attacks. We introduce a unified six-dimensional taxonomy: cross-instance, cross-domain, cross-modality, cross-model, cross-task, and cross-hardware, which systematically captures the diverse transfer pathways of adversarial strategies. Through this framework, we examine both the underlying mechanics and practical implications of transferable attacks on AI systems. Furthermore, we review cutting-edge methods for enhancing attack transferability, organized around data augmentation and optimization strategies. By consolidating fragmented research and identifying critical future directions, this work provides a foundational roadmap for understanding, evaluating, and defending against transferable threats in real-world AI systems.
- Abstract(参考訳): 人工知能(AI)システムは、自動運転車から生体認証まで、ますます重要な応用を支えている。
これらの攻撃は、インスタンス、ドメイン、モデル、タスク、モダリティ、さらにはハードウェアプラットフォームにわたって一般化するよう設計されており、セキュリティ、プライバシ、システムの整合性に深刻なリスクをもたらす。
この調査は、回避、バックドア、データ中毒、モデル盗難、モデル逆転、メンバーシップ推論、サイドチャネル攻撃を含む7つの主要なカテゴリにわたる転送可能な攻撃について、初めて包括的なレビューを提供する。
我々は,クロスインスタンス,クロスドメイン,クロスモダリティ,クロスモデル,クロスタスク,クロスハードウェアの6次元分類を導入し,敵戦略の多様な伝達経路を体系的に捉えた。
この枠組みを通じて,AIシステムに対する伝達可能な攻撃の基盤となるメカニズムと実践的意味について検討する。
さらに,データ拡張と最適化戦略を中心に組織された攻撃伝達性向上のための最先端手法について検討する。
断片化された研究を統合し、重要な将来方向を特定することで、現実世界のAIシステムにおける伝達可能な脅威を理解し、評価し、防御するための基本的なロードマップを提供する。
関連論文リスト
- AIM: Additional Image Guided Generation of Transferable Adversarial Attacks [72.24101555828256]
トランスファー可能な敵の例は、さまざまな現実世界のアプリケーションにまたがる知覚できない摂動に対するディープニューラルネットワーク(DNN)の脆弱性を強調している。
本研究は,ターゲットの移動可能な攻撃に対する生成的アプローチに焦点を当てる。
本稿では,汎用ジェネレータアーキテクチャに新しいプラグイン・アンド・プレイモジュールを導入し,対向トランスファビリティを向上する。
論文 参考訳(メタデータ) (2025-01-02T07:06:49Z) - A Comprehensive Review of Adversarial Attacks on Machine Learning [0.5104264623877593]
本研究は、AIモデルとMLモデルに対する敵攻撃の包括的概要を提供し、様々な攻撃タイプ、テクニック、潜在的な害を探索する。
実用的な洞察を得るためには、自動運転車のような現実世界のユースケースに対する攻撃をシミュレートするために、Adversarial Robustness Toolbox(ART)ライブラリを使用します。
論文 参考訳(メタデータ) (2024-12-16T02:27:54Z) - Towards Transferable Attacks Against Vision-LLMs in Autonomous Driving with Typography [21.632703081999036]
Vision-Large-Language-Models (Vision-LLMs)は、自律走行(AD)システムに統合されつつある。
我々は,ビジョンLLMの意思決定能力に頼って,ADシステムに対するタイポグラフィー攻撃を活用することを提案する。
論文 参考訳(メタデータ) (2024-05-23T04:52:02Z) - CANEDERLI: On The Impact of Adversarial Training and Transferability on CAN Intrusion Detection Systems [17.351539765989433]
車両と外部ネットワークの統合が拡大し、コントロールエリアネットワーク(CAN)の内部バスをターゲットにした攻撃が急増した。
対策として,様々な侵入検知システム(IDS)が文献で提案されている。
これらのシステムのほとんどは、機械学習(ML)やディープラーニング(DL)モデルのような、データ駆動のアプローチに依存しています。
本稿では,CANベースのIDSをセキュアにするための新しいフレームワークであるCANEDERLIを提案する。
論文 参考訳(メタデータ) (2024-04-06T14:54:11Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Unscrambling the Rectification of Adversarial Attacks Transferability
across Computer Networks [4.576324217026666]
畳み込みニューラルネットワーク(CNN)モデルは、最先端のパフォーマンスを達成する上で重要な役割を果たす。
CNNは敵の攻撃を受けやすいため、妥協することができる。
本稿では,攻撃の強さを向上し,CNNにおける敵例の伝達可能性を評価するための,新しい包括的手法を提案する。
論文 参考訳(メタデータ) (2023-10-26T22:36:24Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Fact-Saboteurs: A Taxonomy of Evidence Manipulation Attacks against
Fact-Verification Systems [80.3811072650087]
証拠のクレームサレントスニペットを微調整し,多様かつクレームアラインな証拠を生成することが可能であることを示す。
この攻撃は、主張のポストホックな修正に対しても堅牢である。
これらの攻撃は、インスペクタブルとヒューマン・イン・ザ・ループの使用シナリオに有害な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-09-07T13:39:24Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial Attack Attribution: Discovering Attributable Signals in
Adversarial ML Attacks [0.7883722807601676]
自動運転車やML-as-a-serviceのような生産システムでさえ、逆の入力の影響を受けやすい。
摂動入力は、攻撃を生成するために使われるメソッドに起因できるだろうか?
敵対攻撃属性の概念を導入し、敵対攻撃における攻撃可能信号の発見可能性を調べるための単純な教師付き学習実験フレームワークを作成する。
論文 参考訳(メタデータ) (2021-01-08T08:16:41Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。