論文の概要: Salted Inference: Enhancing Privacy while Maintaining Efficiency of
Split Inference in Mobile Computing
- arxiv url: http://arxiv.org/abs/2310.13384v2
- Date: Fri, 19 Jan 2024 15:19:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 18:56:59.932041
- Title: Salted Inference: Enhancing Privacy while Maintaining Efficiency of
Split Inference in Mobile Computing
- Title(参考訳): Salted Inference: モバイルコンピューティングにおけるスプリット推論の効率を維持しながらプライバシを高める
- Authors: Mohammad Malekzadeh and Fahim Kawsar
- Abstract要約: 分割推論では、ディープニューラルネットワーク(DNN)が分割され、DNNの初期段階をエッジで、DNNの後半をクラウドで実行する。
これはオンデバイス機械学習の2つの重要な要件を満たす:入力のプライバシと計算効率である。
本稿では,DNNの初期部分を実行するエッジのクライアントに対して,推論時にDNNの出力のセマンティック解釈を制御する,新たなアプローチであるSalted DNNを紹介する。
- 参考スコア(独自算出の注目度): 8.915849482780631
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In split inference, a deep neural network (DNN) is partitioned to run the
early part of the DNN at the edge and the later part of the DNN in the cloud.
This meets two key requirements for on-device machine learning: input privacy
and computation efficiency. Still, an open question in split inference is
output privacy, given that the outputs of the DNN are observable in the cloud.
While encrypted computing can protect output privacy too, homomorphic
encryption requires substantial computation and communication resources from
both edge and cloud devices. In this paper, we introduce Salted DNNs: a novel
approach that enables clients at the edge, who run the early part of the DNN,
to control the semantic interpretation of the DNN's outputs at inference time.
Our proposed Salted DNNs maintain classification accuracy and computation
efficiency very close to the standard DNN counterparts. Experimental
evaluations conducted on both images and wearable sensor data demonstrate that
Salted DNNs attain classification accuracy very close to standard DNNs,
particularly when the Salted Layer is positioned within the early part to meet
the requirements of split inference. Our approach is general and can be applied
to various types of DNNs. As a benchmark for future studies, we open-source our
code.
- Abstract(参考訳): 分割推論では、ディープニューラルネットワーク(DNN)が分割され、DNNの初期段階をエッジで、DNNの後半をクラウドで実行する。
これはオンデバイス機械学習の2つの重要な要件を満たす:入力のプライバシと計算効率である。
それでも、DNNの出力がクラウドで観測可能であることを考えると、分割推論におけるオープンな疑問は出力プライバシーである。
暗号化コンピューティングは出力プライバシも保護できるが、準同型暗号化にはエッジデバイスとクラウドデバイスの両方からかなりの計算と通信リソースが必要になる。
本稿では,DNNの初期部分を実行するクライアントに対して,推論時にDNNの出力のセマンティック解釈を制御する,新たなアプローチであるSalted DNNを紹介する。
提案するSalted DNNは,標準のDNNと非常に近い分類精度と計算効率を維持している。
画像とウェアラブルセンサデータの両方で行った実験により、Salted DNNが標準DNNに非常に近い分類精度を達成できることが示され、特にSalted Layerが早期に位置決めされた場合、分割推論の要件を満たすことが示されている。
我々のアプローチは一般的であり、様々な種類のDNNに適用できる。
将来の研究のベンチマークとして、コードをオープンソースにしています。
関連論文リスト
- MatchNAS: Optimizing Edge AI in Sparse-Label Data Contexts via
Automating Deep Neural Network Porting for Mobile Deployment [54.77943671991863]
MatchNASはDeep Neural Networksをモバイルデバイスに移植するための新しいスキームである。
ラベル付きデータと非ラベル付きデータの両方を用いて、大規模なネットワークファミリを最適化する。
そして、さまざまなハードウェアプラットフォーム用に調整されたネットワークを自動的に検索する。
論文 参考訳(メタデータ) (2024-02-21T04:43:12Z) - A Survey on Deep Neural Network Partition over Cloud, Edge and End
Devices [6.248548718574856]
ディープニューラルネットワーク(DNN)パーティションは、DNNを複数の部分に分割し、特定の場所にオフロードする研究問題である。
本稿では,クラウド,エッジ,エンドデバイス上でのDNNパーティションアプローチの最近の進歩と課題について,包括的調査を行う。
論文 参考訳(メタデータ) (2023-04-20T00:17:27Z) - Dynamic Split Computing for Efficient Deep Edge Intelligence [78.4233915447056]
通信チャネルの状態に基づいて最適な分割位置を動的に選択する動的分割計算を導入する。
本研究では,データレートとサーバ負荷が時間とともに変化するエッジコンピューティング環境において,動的スプリットコンピューティングが高速な推論を実現することを示す。
論文 参考訳(メタデータ) (2022-05-23T12:35:18Z) - Deep Serial Number: Computational Watermarking for DNN Intellectual
Property Protection [53.40245698216239]
DSN(Deep Serial Number)はディープニューラルネットワーク(DNN)に特化した透かしアルゴリズムである。
従来のソフトウェアIPの保護においてシリアル番号に着想を得て,DNNに埋め込まれたシリアル番号の最初の実装を提案する。
論文 参考訳(メタデータ) (2020-11-17T21:42:40Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Scission: Performance-driven and Context-aware Cloud-Edge Distribution
of Deep Neural Networks [1.2949520455740093]
本稿では,対象とするデバイス,エッジ,クラウドリソースのセット上で,ディープニューラルネットワーク(DNN)の自動ベンチマークを行うツールであるScisionを提案する。
意思決定のアプローチは、ターゲットリソースのハードウェア機能を活用することによって、コンテキスト認識である。
Scissionのベンチマークのオーバーヘッドにより、リアルタイムではなく、定期的に運用上の変更に対応することができる。
論文 参考訳(メタデータ) (2020-08-08T13:39:57Z) - A Case For Adaptive Deep Neural Networks in Edge Computing [1.683310745678261]
本稿では,エッジコンピューティングにおいて適応型ディープニューラルネットワーク(DNN)が存在するかを検討する。
その結果,ネットワーク条件がCPUやメモリ関連動作条件よりもDNNの性能に影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2020-08-04T20:23:50Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - An Efficient Spiking Neural Network for Recognizing Gestures with a DVS
Camera on the Loihi Neuromorphic Processor [12.118084418840152]
Spiking Neural Networks(SNN)は、機械学習ベースのアプリケーションにおいて注目を浴びている。
本稿では,対応するディープニューラルネットワーク(DNN)とほぼ同じ精度のSNNの設計手法を示す。
我々のSNNは89.64%の分類精度を達成し、37のLoihiコアしか占有していない。
論文 参考訳(メタデータ) (2020-05-16T17:00:10Z) - CodNN -- Robust Neural Networks From Coded Classification [27.38642191854458]
ディープニューラルネットワーク(Deep Neural Networks、DNN)は、現在進行中の情報革命における革命的な力である。
DNNは、敵対的であろうとランダムであろうと、ノイズに非常に敏感である。
これは、DNNのハードウェア実装と、自律運転のような重要なアプリケーションへの展開において、根本的な課題となる。
提案手法により,DNNのデータ層あるいは内部層は誤り訂正符号で符号化され,ノイズ下での計算が成功することが保証される。
論文 参考訳(メタデータ) (2020-04-22T17:07:15Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。