論文の概要: Federated Doubly Stochastic Kernel Learning for Vertically Partitioned
Data
- arxiv url: http://arxiv.org/abs/2008.06197v1
- Date: Fri, 14 Aug 2020 05:46:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 16:45:36.754965
- Title: Federated Doubly Stochastic Kernel Learning for Vertically Partitioned
Data
- Title(参考訳): 垂直分割データに対するフェデレーション2倍確率カーネル学習
- Authors: Bin Gu, Zhiyuan Dang, Xiang Li, Heng Huang
- Abstract要約: 本稿では,垂直分割データに対する2倍のカーネル学習アルゴリズムを提案する。
本稿では,FDSKLがカーネルを扱う場合,最先端のフェデレーション学習手法よりもはるかに高速であることを示す。
- 参考スコア(独自算出の注目度): 93.76907759950608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a lot of real-world data mining and machine learning applications, data
are provided by multiple providers and each maintains private records of
different feature sets about common entities. It is challenging to train these
vertically partitioned data effectively and efficiently while keeping data
privacy for traditional data mining and machine learning algorithms. In this
paper, we focus on nonlinear learning with kernels, and propose a federated
doubly stochastic kernel learning (FDSKL) algorithm for vertically partitioned
data. Specifically, we use random features to approximate the kernel mapping
function and use doubly stochastic gradients to update the solutions, which are
all computed federatedly without the disclosure of data. Importantly, we prove
that FDSKL has a sublinear convergence rate, and can guarantee the data
security under the semi-honest assumption. Extensive experimental results on a
variety of benchmark datasets show that FDSKL is significantly faster than
state-of-the-art federated learning methods when dealing with kernels, while
retaining the similar generalization performance.
- Abstract(参考訳): 多くの実世界のデータマイニングや機械学習アプリケーションでは、データは複数のプロバイダによって提供され、それぞれが共通のエンティティに関するさまざまな機能セットのプライベートレコードを保持する。
従来のデータマイニングや機械学習アルゴリズムのデータプライバシを維持しながら、垂直分割されたデータを効率的かつ効率的にトレーニングすることは難しい。
本稿では,カーネルを用いた非線形学習に着目し,垂直分割データに対するFDSKL(Federated Duubly Stochastic kernel Learning)アルゴリズムを提案する。
具体的には、ランダムな特徴を用いてカーネルマッピング関数を近似し、二重確率勾配を用いて解を更新する。
重要なことは、FDSKLがサブ線形収束率を持ち、半正直な仮定の下でデータセキュリティを保証できることである。
各種ベンチマークデータセットの大規模な実験結果から、FDSKLはカーネルを扱う際の最先端のフェデレーション学習手法よりも大幅に高速であり、同様の一般化性能を維持していることがわかった。
関連論文リスト
- An Empirical Study of Efficiency and Privacy of Federated Learning
Algorithms [2.994794762377111]
今日の世界では、IoTネットワークの急速な拡大とスマートデバイスの普及により、相当量の異種データが生成される。
このデータを効果的に扱うためには、プライバシーと効率の両立を保証するために高度なデータ処理技術が必要である。
フェデレーション学習は、モデルをローカルにトレーニングし、データをプライバシを保存するためにサーバに集約する分散学習手法として登場した。
論文 参考訳(メタデータ) (2023-12-24T00:13:41Z) - Factor-Assisted Federated Learning for Personalized Optimization with
Heterogeneous Data [6.024145412139383]
フェデレートラーニング(Federated Learning)は、データプライバシ保護を目的とした、新興の分散機械学習フレームワークである。
異なるクライアントのデータには、共通の知識とパーソナライズされた知識の両方が含まれている。
我々は、FedSplitと呼ばれる異種データのための、新しい個人化されたフェデレーション学習フレームワークを開発した。
論文 参考訳(メタデータ) (2023-12-07T13:05:47Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Kernel Continual Learning [117.79080100313722]
カーネル連続学習は、破滅的な忘れ事に取り組むための、シンプルだが効果的な連続学習の変種である。
エピソードメモリユニットは、カーネルリッジ回帰に基づいてタスク固有の分類器を学ぶために、各タスクのサンプルのサブセットを格納する。
タスク毎にデータ駆動カーネルを学ぶための変動ランダム機能。
論文 参考訳(メタデータ) (2021-07-12T22:09:30Z) - Privacy-Preserving Asynchronous Federated Learning Algorithms for
Multi-Party Vertically Collaborative Learning [151.47900584193025]
本稿では,非同期フェデレーションSGD(AFSGD-VP)アルゴリズムとその垂直分割データ上でのSVRGおよびSAGA変種を提案する。
我々の知る限り、AFSGD-VPとそのSVRGおよびSAGAの変種は、垂直に分割されたデータのための最初の非同期フェデレーション学習アルゴリズムである。
論文 参考訳(メタデータ) (2020-08-14T08:08:15Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z) - Federated Visual Classification with Real-World Data Distribution [9.564468846277366]
我々は,FedAvg(Federated Averaging)アルゴリズムのベンチマークを用いて,実世界のデータ分布が分散学習に与える影響を特徴付ける。
種別とランドマーク分類のための2つの新しい大規模データセットを導入し,ユーザ毎のデータ分割を現実的に行う。
また、2つの新しいアルゴリズム(FedVC、FedIR)も開発しています。
論文 参考訳(メタデータ) (2020-03-18T07:55:49Z) - DP-MERF: Differentially Private Mean Embeddings with Random Features for
Practical Privacy-Preserving Data Generation [11.312036995195594]
カーネル平均埋め込みのランダムな特徴表現を用いた差分プライベートなデータ生成パラダイムを提案する。
ランダムな特徴表現を2つの重要な利点として活用する。
我々のアルゴリズムは、いくつかのデータセットでテストした場合に、既存の方法よりもはるかに優れたプライバシーとユーティリティのトレードオフを実現する。
論文 参考訳(メタデータ) (2020-02-26T16:41:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。