論文の概要: Efficient Privacy Preserving Edge Computing Framework for Image
Classification
- arxiv url: http://arxiv.org/abs/2005.04563v2
- Date: Sat, 4 Sep 2021 05:35:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 01:31:05.070193
- Title: Efficient Privacy Preserving Edge Computing Framework for Image
Classification
- Title(参考訳): 画像分類のための効率的なプライバシー保護エッジコンピューティングフレームワーク
- Authors: Omobayode Fagbohungbe, Sheikh Rufsan Reza, Xishuang Dong, Lijun Qian
- Abstract要約: 本稿では,画像分類のための新しいプライバシー保護エッジコンピューティングフレームワークを提案する。
Autoencoderは各エッジデバイスで個別に教師なしでトレーニングされ、得られた潜在ベクトルはエッジサーバに送信される。
エンドユーザーのデータのプライバシーは、追加の暗号化コストなしで潜伏ベクトルを送信することによって保護される。
- 参考スコア(独自算出の注目度): 2.6514980627603006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to extract knowledge from the large data collected by edge devices,
traditional cloud based approach that requires data upload may not be feasible
due to communication bandwidth limitation as well as privacy and security
concerns of end users. To address these challenges, a novel privacy preserving
edge computing framework is proposed in this paper for image classification.
Specifically, autoencoder will be trained unsupervised at each edge device
individually, then the obtained latent vectors will be transmitted to the edge
server for the training of a classifier. This framework would reduce the
communications overhead and protect the data of the end users. Comparing to
federated learning, the training of the classifier in the proposed framework
does not subject to the constraints of the edge devices, and the autoencoder
can be trained independently at each edge device without any server
involvement. Furthermore, the privacy of the end users' data is protected by
transmitting latent vectors without additional cost of encryption. Experimental
results provide insights on the image classification performance vs. various
design parameters such as the data compression ratio of the autoencoder and the
model complexity.
- Abstract(参考訳): エッジデバイスが収集した大規模データから知識を抽出するために、通信帯域幅の制限やエンドユーザのプライバシーやセキュリティ上の懸念から、データアップロードを必要とする従来のクラウドベースのアプローチは実現不可能かもしれない。
これらの課題に対処するために,画像分類のための新しいプライバシー保護エッジコンピューティングフレームワークを提案する。
具体的には、オートエンコーダを各エッジデバイスで個別に訓練し、得られた潜在ベクトルをエッジサーバに送信して分類器の訓練を行う。
このフレームワークは通信のオーバーヘッドを減らし、エンドユーザのデータを保護する。
連合学習と比較すると、提案フレームワークにおける分類器のトレーニングはエッジデバイスの制約に従わず、自動エンコーダはサーバの関与なしに各エッジデバイスで独立にトレーニングすることができる。
さらに、エンドユーザーのデータのプライバシーは、追加の暗号化コストなしで潜在ベクターを送信することで保護される。
実験結果は、オートエンコーダのデータ圧縮比やモデルの複雑さなど、画像分類性能と様々な設計パラメータに対する洞察を与える。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - I can't see it but I can Fine-tune it: On Encrypted Fine-tuning of
Transformers using Fully Homomorphic Encryption [5.12893315783096]
BlindTunerは、画像分類のための同型暗号化データのみを対象としたトランスフォーマートレーニングを可能にする、プライバシー保護のための微調整システムである。
以上の結果から,従来よりも1.5倍から600倍の速度向上が見られた。
論文 参考訳(メタデータ) (2024-02-14T10:15:43Z) - Downstream-agnostic Adversarial Examples [66.8606539786026]
AdvEncoderは、事前訓練されたエンコーダに基づいて、ダウンストリームに依存しない普遍的敵の例を生成するための最初のフレームワークである。
従来の逆数例とは異なり、事前訓練されたエンコーダは分類ラベルではなく特徴ベクトルを出力するのみである。
その結果、攻撃者はトレーニング済みのデータセットやダウンストリームのデータセットを知らずに、ダウンストリームのタスクを攻撃できることがわかった。
論文 参考訳(メタデータ) (2023-07-23T10:16:47Z) - Self-supervised On-device Federated Learning from Unlabeled Streams [15.94978097767473]
我々はSOFedと呼ばれるコアセット選択機能を備えた自己教師型オンデバイスフェデレーション学習フレームワークを提案し,コアセットを自動的に選択する。
視覚表現学習における提案手法の有効性と意義について実験を行った。
論文 参考訳(メタデータ) (2022-12-02T07:22:00Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Protecting Data from all Parties: Combining FHE and DP in Federated
Learning [0.09176056742068812]
トレーニングデータのプライバシに関して,拡張脅威モデルに対処するセキュアなフレームワークを提案する。
提案フレームワークは,トレーニングデータ所有者と集約サーバのすべての参加者から,トレーニングデータのプライバシを保護する。
新たな量子化演算子を用いて、同型暗号化を用いることにより、ノイズが定量化され、バウンドされる状況において、差分プライバシー保証が証明される。
論文 参考訳(メタデータ) (2022-05-09T14:33:44Z) - SemiPFL: Personalized Semi-Supervised Federated Learning Framework for
Edge Intelligence [15.590672649077817]
本稿では,ラベル付きデータセットやラベル付きデータセットが限定されていないエッジユーザを支援するための,半教師付きフェデレーション学習(SemiPFL)フレームワークを提案する。
この作業では、エッジユーザが協力してサーバ内のハイパーネットワークをトレーニングし、ユーザ毎にパーソナライズされたオートエンコーダを生成する。
エッジユーザから更新を受けた後、サーバは各ユーザに対してベースモデルのセットを生成し、ユーザが自身のラベル付きデータセットを使用してローカルに集約する。
論文 参考訳(メタデータ) (2022-03-15T18:09:15Z) - Complexity-aware Adaptive Training and Inference for Edge-Cloud
Distributed AI Systems [9.273593723275544]
IoTおよび機械学習アプリケーションは、リアルタイム処理を必要とする大量のデータを生成する。
我々は、エッジとクラウドの両方を利用してトレーニングと推論を行う分散AIシステムを提案する。
論文 参考訳(メタデータ) (2021-09-14T05:03:54Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。