論文の概要: Practical Vertical Federated Learning with Unsupervised Representation
Learning
- arxiv url: http://arxiv.org/abs/2208.10278v1
- Date: Sat, 13 Aug 2022 08:41:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-28 22:16:21.106529
- Title: Practical Vertical Federated Learning with Unsupervised Representation
Learning
- Title(参考訳): 教師なし表現学習による垂直フェデレーション学習
- Authors: Zhaomin Wu, Qinbin Li, Bingsheng He
- Abstract要約: フェデレートされた学習は、複数のパーティが生データを共有せずに、機械学習モデルを協調的にトレーニングすることを可能にする。
我々はFedOnceという,一対一のコミュニケーションしか必要としない新しいコミュニケーション効率の縦型学習アルゴリズムを提案する。
私たちのプライバシー保護技術は、同じプライバシー予算の下で最先端のアプローチを著しく上回ります。
- 参考スコア(独自算出の注目度): 47.77625754666018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As societal concerns on data privacy recently increase, we have witnessed
data silos among multiple parties in various applications. Federated learning
emerges as a new learning paradigm that enables multiple parties to
collaboratively train a machine learning model without sharing their raw data.
Vertical federated learning, where each party owns different features of the
same set of samples and only a single party has the label, is an important and
challenging topic in federated learning. Communication costs among different
parties have been a major hurdle for practical vertical learning systems. In
this paper, we propose a novel communication-efficient vertical federated
learning algorithm named FedOnce, which requires only one-shot communication
among parties. To improve model accuracy and provide privacy guarantee, FedOnce
features unsupervised learning representations in the federated setting and
privacy-preserving techniques based on moments accountant. The comprehensive
experiments on 10 datasets demonstrate that FedOnce achieves close performance
compared to state-of-the-art vertical federated learning algorithms with much
lower communication costs. Meanwhile, our privacy-preserving technique
significantly outperforms the state-of-the-art approaches under the same
privacy budget.
- Abstract(参考訳): データプライバシに関する社会的懸念が最近高まるにつれて、さまざまなアプリケーションにおける複数のパーティ間でのデータサイロが見られます。
フェデレートされた学習は、複数のパーティが生データを共有せずに機械学習モデルを協調的にトレーニングできる新しい学習パラダイムとして現れます。
垂直的フェデレーション学習(英: Vertical Federated Learning)とは、各パーティが同じサンプルセットの異なる特徴を所有し、単一のパーティだけがラベルを持つ学習である。
異なる政党間のコミュニケーションコストは、実践的な垂直学習システムにとって大きなハードルとなっている。
本稿では,FedOnce という,一対一のコミュニケーションしか必要としない新しいコミュニケーション効率の縦型学習アルゴリズムを提案する。
モデルの精度を高め、プライバシの保証を提供するため、フェデレーション設定における教師なしの学習表現と、モーメント会計士に基づくプライバシ保存技術が特徴である。
10のデータセットに関する総合的な実験により、FedOnceは、最先端の垂直的フェデレーション学習アルゴリズムと比較して、通信コストがはるかに低い密なパフォーマンスを実現している。
一方、われわれのプライバシー保護技術は、同じプライバシー予算の下で最先端のアプローチを著しく上回っている。
関連論文リスト
- Exploring Federated Unlearning: Analysis, Comparison, and Insights [101.64910079905566]
フェデレーション・アンラーニングは、フェデレーション・システムで訓練されたモデルからデータを選択的に除去することを可能にする。
本稿では,既存のフェデレーション・アンラーニング手法について検討し,アルゴリズムの効率,モデル精度への影響,プライバシ保護の有効性について検討する。
フェデレートされたアンラーニング手法を評価するための統一ベンチマークであるOpenFederatedUnlearningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Towards Privacy-Aware Causal Structure Learning in Federated Setting [27.5652887311069]
フェデレートされた環境におけるプライバシーに配慮した因果構造学習問題について検討する。
データを集中化せずにデータのプライバシを保存するための2つの新しい戦略を持つ新しいフェデレーションPC(FedPC)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-13T14:54:42Z) - Non-IID data and Continual Learning processes in Federated Learning: A
long road ahead [58.720142291102135]
フェデレートラーニング(Federated Learning)は、複数のデバイスや機関が、データをプライベートに保存しながら、機械学習モデルを協調的にトレーニングすることを可能にする、新しいフレームワークである。
本研究では,データの統計的不均一性を正式に分類し,それに直面することのできる最も顕著な学習戦略をレビューする。
同時に、継続学習のような他の機械学習フレームワークからのアプローチを導入し、データの不均一性にも対処し、フェデレートラーニング設定に容易に適応できるようにします。
論文 参考訳(メタデータ) (2021-11-26T09:57:11Z) - Federated Self-Supervised Contrastive Learning via Ensemble Similarity
Distillation [42.05438626702343]
本稿では,未ラベルのクライアントデータによる良好な表現空間の学習の実現可能性について検討する。
本稿では,アーキテクチャに依存しないローカルトレーニングとコミュニケーション効率のよいグローバルアグリゲーションをサポートする,自己指導型コントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-29T02:13:22Z) - Federated Learning: A Signal Processing Perspective [144.63726413692876]
フェデレーションラーニングは、データを明示的に交換することなく、ローカルデータセットを保持する複数のエッジデバイスでモデルをトレーニングするための新しい機械学習パラダイムです。
本稿では、信号処理ツールを用いて扱うのが自然である主な課題をカプセル化し、強調する、連合学習のための統一的な体系的フレームワークを提供する。
論文 参考訳(メタデータ) (2021-03-31T15:14:39Z) - Constrained Differentially Private Federated Learning for Low-bandwidth
Devices [1.1470070927586016]
本稿では,新しいプライバシー保護型連合学習方式を提案する。
これは、差分プライバシーに基づく理論上のプライバシー保証を提供する。
上流と下流の帯域幅を標準のフェデレート学習と比較して最大99.9%削減する。
論文 参考訳(メタデータ) (2021-02-27T22:25:06Z) - Practical One-Shot Federated Learning for Cross-Silo Setting [114.76232507580067]
ワンショット・フェデレーション・ラーニングは、クロスサイロ環境でフェデレーション・ラーニングを適用するための有望なアプローチである。
本稿では,FedKTという,実践的なワンショットフェデレーション学習アルゴリズムを提案する。
知識伝達技術を利用することで、FedKTは任意の分類モデルに適用でき、フレキシブルに差分プライバシー保証を達成できる。
論文 参考訳(メタデータ) (2020-10-02T14:09:10Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Additively Homomorphical Encryption based Deep Neural Network for
Asymmetrically Collaborative Machine Learning [12.689643742151516]
機械学習の保存は、金融セクターにおけるさらなる適用を制限する制約を生み出す。
我々は、ある当事者がデータを所有するが、別の当事者がラベルのみを所有する新しい協調機械学習の実践的手法を提案する。
異なるデータセットに対する我々の実験は、精度のない安定したトレーニングだけでなく、100倍以上のスピードアップも示しています。
論文 参考訳(メタデータ) (2020-07-14T06:43:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。