論文の概要: Coresets for Vertical Federated Learning: Regularized Linear Regression
and $K$-Means Clustering
- arxiv url: http://arxiv.org/abs/2210.14664v1
- Date: Wed, 26 Oct 2022 12:28:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 16:19:45.054049
- Title: Coresets for Vertical Federated Learning: Regularized Linear Regression
and $K$-Means Clustering
- Title(参考訳): 垂直フェデレート学習のためのコアセット:正規化線形回帰と$k$-meansクラスタリング
- Authors: Lingxiao Huang, Zhize Li, Jialin Sun, Haoyu Zhao
- Abstract要約: 通信効率のよいVFLを実現するために,コアセットを分散的に構築する統合フレームワークを提案する。
VFL設定において、正規化線形回帰と$k$-meansクラスタリングという2つの重要な学習タスクについて検討する。
理論的には、コアセットを使用することで、ソリューションの品質をほぼ維持しながら、通信の複雑さを大幅に軽減できることを示す。
- 参考スコア(独自算出の注目度): 24.51727660771511
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vertical federated learning (VFL), where data features are stored in multiple
parties distributively, is an important area in machine learning. However, the
communication complexity for VFL is typically very high. In this paper, we
propose a unified framework by constructing coresets in a distributed fashion
for communication-efficient VFL. We study two important learning tasks in the
VFL setting: regularized linear regression and $k$-means clustering, and apply
our coreset framework to both problems. We theoretically show that using
coresets can drastically alleviate the communication complexity, while nearly
maintain the solution quality. Numerical experiments are conducted to
corroborate our theoretical findings.
- Abstract(参考訳): データ特徴を複数のパーティに分散的に格納する垂直連合学習(VFL)は、機械学習において重要な分野である。
しかしながら、VFLの通信の複雑さは一般的に非常に高い。
本稿では,通信効率の高いvflのための分散型コアセットの構築による統一フレームワークを提案する。
我々は、vfl設定における2つの重要な学習タスク、正規化線形回帰と$k$-meansクラスタリングを研究し、両方の問題にcoresetフレームワークを適用する。
理論上,コアセットの使用は通信の複雑さを劇的に軽減すると同時に,ソリューションの品質をほぼ維持できることを示す。
理論的知見を補うために数値実験を行った。
関連論文リスト
- Can We Theoretically Quantify the Impacts of Local Updates on the Generalization Performance of Federated Learning? [50.03434441234569]
フェデレートラーニング(FL)は、直接データ共有を必要とせず、さまざまなサイトで機械学習モデルをトレーニングする効果により、大きな人気を集めている。
局所的な更新を伴うFLは通信効率のよい分散学習フレームワークであることが様々なアルゴリズムによって示されているが、局所的な更新によるFLの一般化性能は比較的低い。
論文 参考訳(メタデータ) (2024-09-05T19:00:18Z) - SpaFL: Communication-Efficient Federated Learning with Sparse Models and Low computational Overhead [75.87007729801304]
SpaFL: 計算オーバーヘッドの少ないスパースモデル構造を最適化する通信効率のよいFLフレームワークを提案する。
実験により、スパースベースラインに比べて通信やコンピューティングリソースをはるかに少なくし、精度を向上することが示された。
論文 参考訳(メタデータ) (2024-06-01T13:10:35Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - VertiBench: Advancing Feature Distribution Diversity in Vertical
Federated Learning Benchmarks [31.08004805380727]
本稿では,VFLの性能に影響を及ぼす2つの要因について紹介する。
また、画像イメージのVFLシナリオの欠点に対応するために、実際のVFLデータセットも導入する。
論文 参考訳(メタデータ) (2023-07-05T05:55:08Z) - Federated Empirical Risk Minimization via Second-Order Method [18.548661105227488]
連合学習環境下での一般的な経験的リスク最小化問題を解決するためのインテリアポイント法(IPM)を提案する。
IPMの各イテレーションの通信複雑性は$tildeO(d3/2)$であり、$d$はデータセットの次元(つまり、多くの機能)である。
論文 参考訳(メタデータ) (2023-05-27T14:23:14Z) - GLASU: A Communication-Efficient Algorithm for Federated Learning with
Vertically Distributed Graph Data [44.02629656473639]
本稿では,クライアントとサーバ間でバックボーンGNNを分割するモデル分割手法と通信効率のよいGLASUを提案する。
提案アルゴリズムは,実世界のデータセットに対する理論的解析と広範な数値実験を行い,中央集権的な学習を行うと,バックボーンのGNNと性能が一致するGNNモデルを効果的に訓練することを示した。
論文 参考訳(メタデータ) (2023-03-16T17:47:55Z) - Achieving Model Fairness in Vertical Federated Learning [47.8598060954355]
垂直連合学習(VFL)は、複数の企業が重複しない機能を保有して、プライベートデータやモデルパラメータを開示することなく、機械学習モデルを強化することを可能にする。
VFLは公平性の問題に悩まされており、すなわち、学習されたモデルはセンシティブな属性を持つグループに対して不公平に差別的である可能性がある。
この問題に対処するための公平なVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-17T04:40:11Z) - Multiple Kernel-Based Online Federated Learning [15.102346715690755]
OMKL の非自明な拡張として,新規なマルチカーネルベース OFL (MK-OFL) を提案する。
理論的には、MK-OFLは、後視における最適関数と比較した場合、最適サブ線形後悔境界を達成できる。
論文 参考訳(メタデータ) (2021-02-22T09:51:00Z) - Hybrid Federated Learning: Algorithms and Implementation [61.0640216394349]
Federated Learning(FL)は、分散データセットとプライベートデータセットを扱う分散機械学習パラダイムである。
ハイブリッドFLのためのモデルマッチングに基づく新しい問題定式化を提案する。
次に,グローバルモデルとローカルモデルを協調して学習し,完全かつ部分的な特徴量を扱う効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-22T23:56:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。