論文の概要: Roulette: A Semantic Privacy-Preserving Device-Edge Collaborative
Inference Framework for Deep Learning Classification Tasks
- arxiv url: http://arxiv.org/abs/2309.02820v1
- Date: Wed, 6 Sep 2023 08:08:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 16:15:47.939273
- Title: Roulette: A Semantic Privacy-Preserving Device-Edge Collaborative
Inference Framework for Deep Learning Classification Tasks
- Title(参考訳): Roulette: ディープラーニング分類タスクのためのセマンティックプライバシ保護デバイスエッジ協調推論フレームワーク
- Authors: Jingyi Li, Guocheng Liao, Lin Chen, and Xu Chen
- Abstract要約: Rouletteは、ディープラーニング分類器のためのタスク指向のセマンティックプライバシ保存協調推論フレームワークである。
我々は,バックエンドを凍結し,フロントエンドを特徴抽出器と暗号化器の両方に再訓練する,分割学習の新たなパラダイムを開発する。
- 参考スコア(独自算出の注目度): 21.05961694765183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning classifiers are crucial in the age of artificial intelligence.
The device-edge-based collaborative inference has been widely adopted as an
efficient framework for promoting its applications in IoT and 5G/6G networks.
However, it suffers from accuracy degradation under non-i.i.d. data
distribution and privacy disclosure. For accuracy degradation, direct use of
transfer learning and split learning is high cost and privacy issues remain.
For privacy disclosure, cryptography-based approaches lead to a huge overhead.
Other lightweight methods assume that the ground truth is non-sensitive and can
be exposed. But for many applications, the ground truth is the user's crucial
privacy-sensitive information. In this paper, we propose a framework of
Roulette, which is a task-oriented semantic privacy-preserving collaborative
inference framework for deep learning classifiers. More than input data, we
treat the ground truth of the data as private information. We develop a novel
paradigm of split learning where the back-end DNN is frozen and the front-end
DNN is retrained to be both a feature extractor and an encryptor. Moreover, we
provide a differential privacy guarantee and analyze the hardness of ground
truth inference attacks. To validate the proposed Roulette, we conduct
extensive performance evaluations using realistic datasets, which demonstrate
that Roulette can effectively defend against various attacks and meanwhile
achieve good model accuracy. In a situation where the non-i.i.d. is very
severe, Roulette improves the inference accuracy by 21\% averaged over
benchmarks, while making the accuracy of discrimination attacks almost
equivalent to random guessing.
- Abstract(参考訳): ディープラーニング分類器は、人工知能の時代において不可欠である。
デバイスエッジベースのコラボレーティブ推論は、IoTおよび5G/6Gネットワークでのアプリケーションを促進するための効率的なフレームワークとして広く採用されている。
しかし、ID以外のデータ配信やプライバシー開示の精度低下に悩まされている。
精度の低下のため、転送学習と分割学習の直接利用はコストが高く、プライバシーの問題も残る。
プライバシー開示のために、暗号ベースのアプローチは大きなオーバーヘッドにつながる。
他の軽量な方法は、基底の真理は非感受性であり、露呈できると仮定する。
しかし、多くのアプリケーションにとって、基本的な真実はユーザーのプライバシーに敏感な情報です。
本稿では,ディープラーニング分類のためのタスク指向のセマンティックプライバシ保存協調推論フレームワークであるRouletteのフレームワークを提案する。
入力データよりも、データの基礎的真実をプライベート情報として扱う。
我々は,バックエンドDNNを凍結し,フロントエンドDNNを特徴抽出器と暗号化器の両方に再訓練する,分割学習のパラダイムを開発する。
さらに,プライバシの異なる保証を提供し,真理推論攻撃の難しさを解析する。
提案したRouletteの有効性を検証するために,現実的なデータセットを用いて広範な性能評価を行い,Rouletteが様々な攻撃に対して効果的に防御でき,一方でモデル精度も良好であることを示す。
非i.d.が非常に厳しい状況では、Rouletteはベンチマークよりも平均21\%の推論精度を向上し、一方、識別攻撃の精度はランダムな推測とほぼ同等である。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Synthetic-To-Real Video Person Re-ID [57.937189569211505]
人物再識別(Re-ID)は重要な課題であり、公衆の安全と情報法医学に重要な応用がある。
本稿では、Re-IDの新規かつ挑戦的な設定、すなわちドメイン間ビデオベースの人物Re-IDについて検討する。
我々は、テストのためのトレーニングや実世界のビデオのソースドメインとして、合成ビデオデータセットを使用します。
論文 参考訳(メタデータ) (2024-02-03T10:19:21Z) - Locally Differentially Private Gradient Tracking for Distributed Online
Learning over Directed Graphs [2.1271873498506038]
本稿では,局所的に個人差分な勾配追跡に基づく分散オンライン学習アルゴリズムを提案する。
提案アルゴリズムは,厳密な局所差分プライバシーを確保しつつ,平均二乗を最適解に収束させることを証明した。
論文 参考訳(メタデータ) (2023-10-24T18:15:25Z) - Locally Differentially Private Distributed Online Learning with Guaranteed Optimality [1.800614371653704]
本稿では,分散オンライン学習における差分プライバシーと学習精度を両立させる手法を提案する。
予想される即時後悔の減少を確実にする一方で、このアプローチは有限累積プライバシー予算を同時に確保することができる。
私たちの知る限りでは、このアルゴリズムは厳密な局所的な差分プライバシーと学習精度の両方を確実にする最初のアルゴリズムです。
論文 参考訳(メタデータ) (2023-06-25T02:05:34Z) - When approximate design for fast homomorphic computation provides
differential privacy guarantees [0.08399688944263842]
差分プライバシー(DP)と暗号プリミティブは、プライバシー攻撃に対する一般的な対策である。
本稿では,argmax演算子に対する確率近似アルゴリズム ShiELD を設計する。
たとえShielDが他のアプリケーションを持つことができたとしても、私たちは1つの設定に集中し、SPEEDコラボレーティブトレーニングフレームワークにシームレスに統合します。
論文 参考訳(メタデータ) (2023-04-06T09:38:01Z) - Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。