論文の概要: TEE-based decentralized recommender systems: The raw data sharing
redemption
- arxiv url: http://arxiv.org/abs/2202.11655v1
- Date: Wed, 23 Feb 2022 17:55:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 17:34:48.095894
- Title: TEE-based decentralized recommender systems: The raw data sharing
redemption
- Title(参考訳): TEEに基づく分散型レコメンデーションシステム:生データ共有の償還
- Authors: Akash Dhasade, Nevena Dresevic, Anne-Marie Kermarrec, Rafael Pires
- Abstract要約: 私たちは、最初のエンクレーブベースの分散レコメンデータであるREXを紹介します。
REXは信頼性の高い実行環境を利用して、プライバシを保持しながら収束を改善する。
我々は、ディープニューラルネットワーク(DNN)とマトリクス分解(MF)レコメンダの両方における生データ共有の影響を分析する。
- 参考スコア(独自算出の注目度): 3.0204520109309843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recommenders are central in many applications today. The most effective
recommendation schemes, such as those based on collaborative filtering (CF),
exploit similarities between user profiles to make recommendations, but
potentially expose private data. Federated learning and decentralized learning
systems address this by letting the data stay on user's machines to preserve
privacy: each user performs the training on local data and only the model
parameters are shared. However, sharing the model parameters across the network
may still yield privacy breaches. In this paper, we present REX, the first
enclave-based decentralized CF recommender. REX exploits Trusted execution
environments (TEE), such as Intel software guard extensions (SGX), that provide
shielded environments within the processor to improve convergence while
preserving privacy. Firstly, REX enables raw data sharing, which ultimately
speeds up convergence and reduces the network load. Secondly, REX fully
preserves privacy. We analyze the impact of raw data sharing in both deep
neural network (DNN) and matrix factorization (MF) recommenders and showcase
the benefits of trusted environments in a full-fledged implementation of REX.
Our experimental results demonstrate that through raw data sharing, REX
significantly decreases the training time by 18.3x and the network load by 2
orders of magnitude over standard decentralized approaches that share only
parameters, while fully protecting privacy by leveraging trustworthy hardware
enclaves with very little overhead.
- Abstract(参考訳): 今日の多くのアプリケーションではレコメンダが中心です。
協調フィルタリング(CF)に基づくような最も効果的なレコメンデーションスキームは、ユーザプロファイル間の類似性を利用してレコメンデーションを作成するが、潜在的にプライベートデータを公開する。
連合学習と分散学習システムは、データをプライバシを保護するためにユーザのマシンに留めておくことで、この問題に対処している。
しかし、ネットワーク全体でモデルパラメータを共有することは、それでもプライバシー侵害を引き起こす可能性がある。
本稿では,最初のエンクレーブ型分散CFレコメンデータであるREXを紹介する。
REXはIntelソフトウェアガード拡張(SGX)のような信頼された実行環境(TEE)を利用して、プライバシを保持しながら収束を改善する。
まず、REXは生のデータ共有を可能にし、最終的に収束をスピードアップし、ネットワークの負荷を減らす。
第二に、REXはプライバシーを完全に保存する。
我々は、ディープニューラルネットワーク(DNN)とマトリクス因数分解(MF)レコメンダの両方における生データ共有の影響を分析し、信頼された環境の利点をREXの完全な実装で示す。
実験の結果、生のデータ共有により、rexはトレーニング時間を18.3倍削減し、パラメータのみを共有する標準分散アプローチに比べてネットワーク負荷を2桁削減すると同時に、極めて少ないオーバヘッドで信頼性の高いハードウェアエンクレーブを活用することで、プライバシを完全に保護できることがわかった。
関連論文リスト
- PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Cross-Network Social User Embedding with Hybrid Differential Privacy
Guarantees [81.6471440778355]
プライバシー保護方式でユーザを包括的に表現するために,ネットワーク横断型ソーシャルユーザ埋め込みフレームワークDP-CroSUEを提案する。
特に、各異種ソーシャルネットワークに対して、異種データ型に対するプライバシー期待の変化を捉えるために、まずハイブリッドな差分プライバシーの概念を導入する。
ユーザ埋め込みをさらに強化するため、新しいネットワーク間GCN埋め込みモデルは、それらの整列したユーザを介して、ネットワーク間で知識を伝達するように設計されている。
論文 参考訳(メタデータ) (2022-09-04T06:22:37Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Stochastic Coded Federated Learning with Convergence and Privacy
Guarantees [8.2189389638822]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習フレームワークとして多くの注目を集めている。
本稿では、トラグラー問題を緩和するために、SCFL(Coded Federated Learning)というコード付きフェデレーション学習フレームワークを提案する。
我々は、相互情報差分プライバシー(MI-DP)によるプライバシー保証を特徴付け、連合学習における収束性能を分析する。
論文 参考訳(メタデータ) (2022-01-25T04:43:29Z) - Scotch: An Efficient Secure Computation Framework for Secure Aggregation [0.0]
フェデレーション学習は、複数のデータ所有者がプライベートデータセットを公開せずに、機械学習モデルを共同でトレーニングすることを可能にする。
悪意のある集約サーバは、モデルパラメータを使用して、使用したトレーニングデータセットに関する機密情報を導き出すことができる。
フェデレーションアグリゲーションのための分散化テキストitm-partyセキュア計算フレームワークであるtextscScotch を提案する。
論文 参考訳(メタデータ) (2022-01-19T17:16:35Z) - FedMix: Approximation of Mixup under Mean Augmented Federated Learning [60.503258658382]
フェデレートラーニング(FL)は、エッジデバイスが各デバイス内でデータを直接共有することなく、モデルを集合的に学習することを可能にする。
現在の最先端アルゴリズムは、クライアント間のローカルデータの均一性が増大するにつれて性能劣化に悩まされる。
我々はFedMixという名の新しい拡張アルゴリズムを提案し、これは驚くべきが単純なデータ拡張手法であるMixupにインスパイアされている。
論文 参考訳(メタデータ) (2021-07-01T06:14:51Z) - FedOCR: Communication-Efficient Federated Learning for Scene Text
Recognition [76.26472513160425]
本研究では、分散化されたデータセットを用いて、ロバストなシーンテキスト認識器を訓練する方法について研究する。
FedOCRをエンドデバイスにデプロイするのに適したものにするために、軽量モデルとハッシュ技術の使用を含む2つの改善を行った。
論文 参考訳(メタデータ) (2020-07-22T14:30:50Z) - Concentrated Differentially Private and Utility Preserving Federated
Learning [24.239992194656164]
フェデレーション・ラーニング(Federated Learning)とは、エッジデバイスのセットが、中央サーバのオーケストレーションの下でモデルを協調的にトレーニングする、機械学習環境である。
本稿では,モデルユーティリティの劣化を伴わずに,プライバシ問題に対処するフェデレーション学習手法を開発する。
このアプローチのエンドツーエンドのプライバシ保証を厳格に提供し、理論的収束率を分析します。
論文 参考訳(メタデータ) (2020-03-30T19:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。