論文の概要: RL-DistPrivacy: Privacy-Aware Distributed Deep Inference for low latency
IoT systems
- arxiv url: http://arxiv.org/abs/2208.13032v1
- Date: Sat, 27 Aug 2022 14:50:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 13:18:10.722789
- Title: RL-DistPrivacy: Privacy-Aware Distributed Deep Inference for low latency
IoT systems
- Title(参考訳): RL-DistPrivacy: 低レイテンシIoTシステムのためのプライバシ対応分散深層推論
- Authors: Emna Baccour, Aiman Erbad, Amr Mohamed, Mounir Hamdi, Mohsen Guizani
- Abstract要約: 本稿では,流通戦略の再考を通じて協調的深層推論の安全性を目標とするアプローチを提案する。
我々は、この手法を最適化として定式化し、コ推論のレイテンシとプライバシーレベルのデータのトレードオフを確立する。
- 参考スコア(独自算出の注目度): 41.1371349978643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although Deep Neural Networks (DNN) have become the backbone technology of
several ubiquitous applications, their deployment in resource-constrained
machines, e.g., Internet of Things (IoT) devices, is still challenging. To
satisfy the resource requirements of such a paradigm, collaborative deep
inference with IoT synergy was introduced. However, the distribution of DNN
networks suffers from severe data leakage. Various threats have been presented,
including black-box attacks, where malicious participants can recover arbitrary
inputs fed into their devices. Although many countermeasures were designed to
achieve privacy-preserving DNN, most of them result in additional computation
and lower accuracy. In this paper, we present an approach that targets the
security of collaborative deep inference via re-thinking the distribution
strategy, without sacrificing the model performance. Particularly, we examine
different DNN partitions that make the model susceptible to black-box threats
and we derive the amount of data that should be allocated per device to hide
proprieties of the original input. We formulate this methodology, as an
optimization, where we establish a trade-off between the latency of
co-inference and the privacy-level of data. Next, to relax the optimal
solution, we shape our approach as a Reinforcement Learning (RL) design that
supports heterogeneous devices as well as multiple DNNs/datasets.
- Abstract(参考訳): Deep Neural Networks (DNN) は、いくつかのユビキタスアプリケーションのバックボーン技術となっているが、IoT(Internet of Things)デバイスなどのリソース制約されたマシンへの展開は依然として難しい。
このようなパラダイムのリソース要件を満たすため、IoTシナジーとの協調的な深い推論が導入された。
しかし、DNNネットワークの分布は深刻なデータ漏洩に悩まされている。
悪意のある参加者がデバイスに入力された任意の入力を回復できるブラックボックス攻撃など、さまざまな脅威が提示されている。
多くの対策は、プライバシー保護DNNを実現するために設計されたが、そのほとんどは、さらなる計算と精度の低下をもたらす。
本稿では,モデル性能を犠牲にすることなく,分散戦略を再考することで協調的深層推論の安全性を目標とする手法を提案する。
特に,ブラックボックスの脅威の影響を受けやすい異なるDNNパーティションについて検討し,デバイス毎に割り当てるべきデータ量を導出し,元の入力のプロパティを隠蔽する。
この手法を最適化として定式化し、コ推論のレイテンシとプライバシーレベルのデータのトレードオフを確立する。
次に、最適解を緩和するために、異種デバイスと複数のDNN/データセットをサポートする強化学習(RL)設計としてアプローチを形作る。
関連論文リスト
- Enhanced Convolution Neural Network with Optimized Pooling and Hyperparameter Tuning for Network Intrusion Detection [0.0]
ネットワーク侵入検知システム(NIDS)のための拡張畳み込みニューラルネットワーク(EnCNN)を提案する。
我々はEnCNNと、ロジスティック回帰、決定木、サポートベクトルマシン(SVM)、ランダムフォレスト、AdaBoost、Votting Ensembleといったアンサンブル手法など、さまざまな機械学習アルゴリズムを比較した。
その結果,EnCNNは検出精度を大幅に向上し,最先端アプローチよりも10%向上した。
論文 参考訳(メタデータ) (2024-09-27T11:20:20Z) - Model Agnostic Hybrid Sharding For Heterogeneous Distributed Inference [11.39873199479642]
Nesaは、分散AI推論用に設計されたモデルに依存しないシャーディングフレームワークを導入した。
私たちのフレームワークでは、ブロックチェーンベースのディープニューラルネットワークシャーディングを使用して、さまざまなノードネットワークに計算タスクを分散しています。
われわれの結果は、最先端のAI技術へのアクセスを民主化する可能性を強調している。
論文 参考訳(メタデータ) (2024-07-29T08:18:48Z) - DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Computational Intelligence and Deep Learning for Next-Generation
Edge-Enabled Industrial IoT [51.68933585002123]
エッジ対応産業用IoTネットワークにおける計算知能とディープラーニング(DL)の展開方法について検討する。
本稿では,新しいマルチエグジットベースフェデレーションエッジ学習(ME-FEEL)フレームワークを提案する。
特に、提案されたME-FEELは、非常に限られたリソースを持つ産業用IoTネットワークにおいて、最大32.7%の精度を達成することができる。
論文 参考訳(メタデータ) (2021-10-28T08:14:57Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - A Review of Confidentiality Threats Against Embedded Neural Network
Models [0.0]
本稿では,組み込みディープニューラルネットワーク(DNN)モデルの機密性を標的とした攻撃について述べる。
私たちは、Side-Channel Analysis(SCA)がモデルの機密性を侵害できる比較的未踏のバイアスであるという事実を強調しています。
論文 参考訳(メタデータ) (2021-05-04T10:27:20Z) - DeepHammer: Depleting the Intelligence of Deep Neural Networks through
Targeted Chain of Bit Flips [29.34622626909906]
量子化ディープニューラルネットワーク(DNN)に対するハードウェアベースの最初の攻撃を実演する。
DeepHammerは、数分で実行時にDNNの推論動作を修正することができる。
私たちの研究は、将来のディープラーニングシステムにセキュリティメカニズムを組み込む必要性を強調しています。
論文 参考訳(メタデータ) (2020-03-30T18:51:59Z) - Industrial Scale Privacy Preserving Deep Neural Network [23.690146141150407]
本稿では,産業規模のプライバシ保護型ニューラルネットワーク学習パラダイムを提案する。
実世界の不正検出データセットと金融危機予測データセットについて実験を行った。
論文 参考訳(メタデータ) (2020-03-11T10:15:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。