論文の概要: SHEATH: Defending Horizontal Collaboration for Distributed CNNs against Adversarial Noise
- arxiv url: http://arxiv.org/abs/2409.17279v1
- Date: Wed, 25 Sep 2024 18:45:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-30 12:52:34.750938
- Title: SHEATH: Defending Horizontal Collaboration for Distributed CNNs against Adversarial Noise
- Title(参考訳): SHEATH: 対向雑音に対する分散型CNNの水平協調
- Authors: Muneeba Asif, Mohammad Kumail Kazmi, Mohammad Ashiqur Rahman, Syed Rafay Hasan, Soamar Homsi,
- Abstract要約: 本稿では,適応脅威ハンドリング(SHEATH)を用いたセキュア水平エッジのための新しいフレームワークを提案する。
SHEATHは、HCエッジアーキテクチャにおけるCNNモデルの完全な知識を必要とせずに、脆弱性に対処することを目指している。
本評価は,多様なCNN構成におけるSHEATHの適応性と有効性を示すものである。
- 参考スコア(独自算出の注目度): 1.0415834763540737
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As edge computing and the Internet of Things (IoT) expand, horizontal collaboration (HC) emerges as a distributed data processing solution for resource-constrained devices. In particular, a convolutional neural network (CNN) model can be deployed on multiple IoT devices, allowing distributed inference execution for image recognition while ensuring model and data privacy. Yet, this distributed architecture remains vulnerable to adversaries who want to make subtle alterations that impact the model, even if they lack access to the entire model. Such vulnerabilities can have severe implications for various sectors, including healthcare, military, and autonomous systems. However, security solutions for these vulnerabilities have not been explored. This paper presents a novel framework for Secure Horizontal Edge with Adversarial Threat Handling (SHEATH) to detect adversarial noise and eliminate its effect on CNN inference by recovering the original feature maps. Specifically, SHEATH aims to address vulnerabilities without requiring complete knowledge of the CNN model in HC edge architectures based on sequential partitioning. It ensures data and model integrity, offering security against adversarial attacks in diverse HC environments. Our evaluations demonstrate SHEATH's adaptability and effectiveness across diverse CNN configurations.
- Abstract(参考訳): エッジコンピューティングとIoT(Internet of Things)が拡大するにつれて、リソース制約のあるデバイスのための分散データ処理ソリューションとして水平コラボレーション(HC)が登場します。
特に、畳み込みニューラルネットワーク(CNN)モデルは、複数のIoTデバイスにデプロイすることができ、モデルとデータのプライバシを確保しながら、画像認識のための分散推論実行を可能にする。
しかし、この分散アーキテクチャは、たとえモデル全体にアクセスできないとしても、モデルに影響を及ぼす微妙な変更をしたいと願う敵に弱いままです。
このような脆弱性は、医療、軍事、自律システムなど、さまざまな分野に深刻な影響を及ぼす可能性がある。
しかし、これらの脆弱性に対するセキュリティソリューションは検討されていない。
本稿では,逆方向の雑音を検知し,元の特徴マップを復元することでCNN推論にその影響をなくすために,SHEATH(Adversarial Threat Handling)を用いたセキュア水平エッジ(Secure Horizontal Edge)を提案する。
特にSHEATHは、シーケンシャルパーティショニングに基づいたHCエッジアーキテクチャにおけるCNNモデルの完全な知識を必要とせずに、脆弱性に対処することを目指している。
データとモデルの整合性を保証し、さまざまなHC環境における敵攻撃に対するセキュリティを提供する。
本評価は,多様なCNN構成におけるSHEATHの適応性と有効性を示すものである。
関連論文リスト
- Impact of White-Box Adversarial Attacks on Convolutional Neural Networks [0.6138671548064356]
本稿では,畳み込みニューラルネットワーク(CNN)のホワイトボックス攻撃に対する感受性について検討する。
本研究は、敵の脅威に対するCNNの堅牢性に関する知見を提供する。
論文 参考訳(メタデータ) (2024-10-02T21:24:08Z) - A Novel Self-Attention-Enabled Weighted Ensemble-Based Convolutional Neural Network Framework for Distributed Denial of Service Attack Classification [0.0]
本研究は、DDoS攻撃検出のための新しいアプローチを提案する。
提案手法は精度98.71%、F1スコア98.66%、リコール98.63%、精度98.69%を達成する。
論文 参考訳(メタデータ) (2024-09-01T18:58:33Z) - Model Agnostic Hybrid Sharding For Heterogeneous Distributed Inference [11.39873199479642]
Nesaは、分散AI推論用に設計されたモデルに依存しないシャーディングフレームワークを導入した。
私たちのフレームワークでは、ブロックチェーンベースのディープニューラルネットワークシャーディングを使用して、さまざまなノードネットワークに計算タスクを分散しています。
われわれの結果は、最先端のAI技術へのアクセスを民主化する可能性を強調している。
論文 参考訳(メタデータ) (2024-07-29T08:18:48Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - RL-DistPrivacy: Privacy-Aware Distributed Deep Inference for low latency
IoT systems [41.1371349978643]
本稿では,流通戦略の再考を通じて協調的深層推論の安全性を目標とするアプローチを提案する。
我々は、この手法を最適化として定式化し、コ推論のレイテンシとプライバシーレベルのデータのトレードオフを確立する。
論文 参考訳(メタデータ) (2022-08-27T14:50:00Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Transferable Perturbations of Deep Feature Distributions [102.94094966908916]
本研究は,クラスワイドおよび層ワイドな特徴分布のモデリングと利用に基づく新たな敵攻撃を提案する。
我々は、未定義の画像ネットモデルに対して、最先端のブラックボックス転送に基づく攻撃結果を得る。
論文 参考訳(メタデータ) (2020-04-27T00:32:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。