論文の概要: A Generative Federated Learning Framework for Differential Privacy
- arxiv url: http://arxiv.org/abs/2109.12062v1
- Date: Fri, 24 Sep 2021 16:36:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-27 17:31:30.474612
- Title: A Generative Federated Learning Framework for Differential Privacy
- Title(参考訳): 微分プライバシーのための生成型連合学習フレームワーク
- Authors: Eugenio Lomurno, Leonardo Di Perna, Lorenzo Cazzella, Stefano Samele,
Matteo Matteucci
- Abstract要約: 本稿では,現在の連合学習パラダイムに代わる3DGLフレームワークを提案する。
その目標は、高レベルの$varepsilon$-differential privacyで生成モデルを共有することだ。
さらに,DDP-$beta$VAEを提案する。これは個人に対して高い利便性と安全性を持つ合成データを生成可能な深層生成モデルである。
- 参考スコア(独自算出の注目度): 7.50722199393581
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In machine learning, differential privacy and federated learning concepts are
gaining more and more importance in an increasingly interconnected world. While
the former refers to the sharing of private data characterized by strict
security rules to protect individual privacy, the latter refers to distributed
learning techniques in which a central server exchanges information with
different clients for machine learning purposes. In recent years, many studies
have shown the possibility of bypassing the privacy shields of these systems
and exploiting the vulnerabilities of machine learning models, making them leak
the information with which they have been trained. In this work, we present the
3DGL framework, an alternative to the current federated learning paradigms. Its
goal is to share generative models with high levels of
$\varepsilon$-differential privacy. In addition, we propose DDP-$\beta$VAE, a
deep generative model capable of generating synthetic data with high levels of
utility and safety for the individual. We evaluate the 3DGL framework based on
DDP-$\beta$VAE, showing how the overall system is resilient to the principal
attacks in federated learning and improves the performance of distributed
learning algorithms.
- Abstract(参考訳): 機械学習では、ますます相互接続する世界で、差分プライバシーとフェデレーション学習の概念がますます重要になっている。
前者は個人プライバシを保護するための厳格なセキュリティルールを特徴とするプライベートデータの共有を指すが、後者は、中央サーバが異なるクライアントと機械学習目的で情報を交換する分散学習技術を指す。
近年、多くの研究が、これらのシステムのプライバシー保護をバイパスし、機械学習モデルの脆弱性を悪用し、彼らが訓練した情報を漏洩する可能性を示している。
本研究では,現在の連合学習パラダイムに代わる3dglフレームワークを提案する。
その目標は、高レベルの$\varepsilon$-differential privacyで生成モデルを共有することだ。
さらに,ddp-$\beta$vaeを提案する。これは,高い実用性と個人の安全性を備えた合成データを生成することができる,深い生成モデルである。
ddp-$\beta$vaeに基づく3dglフレームワークを評価し,連合学習における主要な攻撃に対するシステム全体のレジリエント性を示し,分散学習アルゴリズムの性能を向上させる。
関連論文リスト
- Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - Privacy Side Channels in Machine Learning Systems [87.53240071195168]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
例えば、差分プライベートなトレーニングを適用する前にトレーニングデータを重複させることで、保証可能なプライバシ保証を完全に無効にするサイドチャネルが生成されることを示す。
さらに,学習データセットに含まれる秘密鍵を抽出するために,言語モデルを学習データ再生からブロックするシステムを利用することを示す。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - A Survey on Differential Privacy with Machine Learning and Future
Outlook [0.0]
差分プライバシーは、あらゆる攻撃や脆弱性から機械学習モデルを保護するために使用される。
本稿では,2つのカテゴリに分類される差分プライベート機械学習アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-11-19T14:20:53Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - Privacy-Preserving Wavelet Wavelet Neural Network with Fully Homomorphic
Encryption [5.010425616264462]
プライバシ保護機械学習(PPML)は、プライバシ保護と、マシンラーニングモデルの構築に使用されるデータに対するセキュリティの提供を目的としている。
プライバシを保護すると同時に,モデルの効率を損なわないよう,完全同型暗号化ウェーブレットニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-05-26T10:40:31Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - LDP-FL: Practical Private Aggregation in Federated Learning with Local
Differential Privacy [20.95527613004989]
フェデレーション学習は、実際のデータではなく、局所的な勾配情報を収集するプライバシー保護のための一般的なアプローチである。
それまでの作業は3つの問題により現実的な解決には至らなかった。
最後に、ディープラーニングモデルにおける重みの高次元性により、プライバシー予算が爆発的に膨らみます。
論文 参考訳(メタデータ) (2020-07-31T01:08:57Z) - Additively Homomorphical Encryption based Deep Neural Network for
Asymmetrically Collaborative Machine Learning [12.689643742151516]
機械学習の保存は、金融セクターにおけるさらなる適用を制限する制約を生み出す。
我々は、ある当事者がデータを所有するが、別の当事者がラベルのみを所有する新しい協調機械学習の実践的手法を提案する。
異なるデータセットに対する我々の実験は、精度のない安定したトレーニングだけでなく、100倍以上のスピードアップも示しています。
論文 参考訳(メタデータ) (2020-07-14T06:43:25Z) - Concentrated Differentially Private and Utility Preserving Federated
Learning [24.239992194656164]
フェデレーション・ラーニング(Federated Learning)とは、エッジデバイスのセットが、中央サーバのオーケストレーションの下でモデルを協調的にトレーニングする、機械学習環境である。
本稿では,モデルユーティリティの劣化を伴わずに,プライバシ問題に対処するフェデレーション学習手法を開発する。
このアプローチのエンドツーエンドのプライバシ保証を厳格に提供し、理論的収束率を分析します。
論文 参考訳(メタデータ) (2020-03-30T19:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。