論文の概要: Exploiting Edge Features for Transferable Adversarial Attacks in Distributed Machine Learning
- arxiv url: http://arxiv.org/abs/2507.07259v1
- Date: Wed, 09 Jul 2025 20:09:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.196872
- Title: Exploiting Edge Features for Transferable Adversarial Attacks in Distributed Machine Learning
- Title(参考訳): 分散機械学習における伝達可能な敵攻撃のためのエッジ機能の爆発
- Authors: Giulio Rossolini, Fabio Brau, Alessandro Biondi, Battista Biggio, Giorgio Buttazzo,
- Abstract要約: この研究は、分散ディープラーニングシステムにおいて、これまで見過ごされていた脆弱性を探究する。
中間的特徴をインターセプトする敵は、依然として深刻な脅威となる可能性がある。
本稿では,分散環境に特化して設計されたエクスプロイト戦略を提案する。
- 参考スコア(独自算出の注目度): 54.26807397329468
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As machine learning models become increasingly deployed across the edge of internet of things environments, a partitioned deep learning paradigm in which models are split across multiple computational nodes introduces a new dimension of security risk. Unlike traditional inference setups, these distributed pipelines span the model computation across heterogeneous nodes and communication layers, thereby exposing a broader attack surface to potential adversaries. Building on these motivations, this work explores a previously overlooked vulnerability: even when both the edge and cloud components of the model are inaccessible (i.e., black-box), an adversary who intercepts the intermediate features transmitted between them can still pose a serious threat. We demonstrate that, under these mild and realistic assumptions, an attacker can craft highly transferable proxy models, making the entire deep learning system significantly more vulnerable to evasion attacks. In particular, the intercepted features can be effectively analyzed and leveraged to distill surrogate models capable of crafting highly transferable adversarial examples against the target model. To this end, we propose an exploitation strategy specifically designed for distributed settings, which involves reconstructing the original tensor shape from vectorized transmitted features using simple statistical analysis, and adapting surrogate architectures accordingly to enable effective feature distillation. A comprehensive and systematic experimental evaluation has been conducted to demonstrate that surrogate models trained with the proposed strategy, i.e., leveraging intermediate features, tremendously improve the transferability of adversarial attacks. These findings underscore the urgent need to account for intermediate feature leakage in the design of secure distributed deep learning systems.
- Abstract(参考訳): 機械学習モデルがモノのインターネットの端を越えてデプロイされるようになるにつれて、モデルが複数の計算ノードにまたがって分割されたディープラーニングパラダイムが、セキュリティリスクの新たな次元を導入している。
従来の推論設定とは異なり、これらの分散パイプラインは異種ノードや通信層にまたがるモデル計算にまたがるため、潜在的な敵に対してより広範な攻撃面を露呈する。
これらのモチベーションに基づいて、この研究は以前見落とされた脆弱性を探求する:モデルのエッジコンポーネントとクラウドコンポーネントの両方がアクセス不能(すなわちブラックボックス)である場合でも、それらの間に送信される中間的特徴をインターセプトする敵は依然として深刻な脅威となる。
このような穏やかで現実的な仮定の下で、攻撃者は高度に転送可能なプロキシモデルを構築することができ、ディープラーニングシステム全体が回避攻撃に対して著しく脆弱であることを示す。
特に、インターセプトされた特徴を効果的に分析し、ターゲットモデルに対して高度に伝達可能な逆例を作成することができるシュロゲートモデルを蒸留することができる。
そこで本研究では,ベクトル化された伝達特徴からベクトル化されたテンソル形状を再構成し,それに応じてサロゲート構造を適応させて効率的な特徴蒸留を実現する,分散環境に特化して設計されたエクスプロイト戦略を提案する。
提案手法を用いて訓練されたサロゲートモデル,すなわち中間的特徴を活用することで,敵攻撃の伝達性を大幅に向上させることを実証するために,包括的かつ系統的な実験的評価を行った。
これらの知見は、セキュアな分散ディープラーニングシステムの設計において、中間的特徴漏洩を考慮する緊急の必要性を浮き彫りにしている。
関連論文リスト
- Toward Realistic Adversarial Attacks in IDS: A Novel Feasibility Metric for Transferability [0.0]
転送可能性に基づく敵攻撃は、特定のソース侵入検知システム(IDS)モデルを騙すために、敵の例を活用できる。
これらの攻撃は、セキュリティ対策や妥協システムを回避するために、機械学習モデルの一般的な脆弱性を利用する。
本稿では,機能アライメント,モデルアーキテクチャの類似性,および各IDSが検査するデータ分布の重複など,伝達可能性に寄与する要因について分析する。
論文 参考訳(メタデータ) (2025-04-11T12:15:03Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - FACADE: A Framework for Adversarial Circuit Anomaly Detection and
Evaluation [9.025997629442896]
FACADEは、ディープニューラルネットワークにおける教師なしの機械的異常検出のために設計されている。
我々のアプローチは、モデルの堅牢性を改善し、スケーラブルなモデル監視を強化し、現実のデプロイメント環境で有望なアプリケーションを実証することを目指している。
論文 参考訳(メタデータ) (2023-07-20T04:00:37Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - TREND: Transferability based Robust ENsemble Design [6.663641564969944]
本稿では, ネットワークアーキテクチャ, 入力, 重量, アクティベーションの量子化が, 対向サンプルの転送性に及ぼす影響について検討する。
本研究では,ソースとターゲット間の入力量子化によってトランスファービリティが著しく阻害されていることを示す。
我々は、これに対抗するために、新しい最先端のアンサンブル攻撃を提案する。
論文 参考訳(メタデータ) (2020-08-04T13:38:14Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z) - Extending Adversarial Attacks to Produce Adversarial Class Probability
Distributions [1.439518478021091]
高い不正率を維持しながら,クラスに対する確率分布を近似できることを示す。
この結果から, クラスに対する確率分布は, 高い不正率を維持しつつ, 密に近似できることが示唆された。
論文 参考訳(メタデータ) (2020-04-14T09:39:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。