論文の概要: Federated Learning under Distributed Concept Drift
- arxiv url: http://arxiv.org/abs/2206.00799v1
- Date: Wed, 1 Jun 2022 23:55:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-04 02:37:09.398142
- Title: Federated Learning under Distributed Concept Drift
- Title(参考訳): 分散概念ドリフトに基づくフェデレーション学習
- Authors: Ellango Jothimurugesan, Kevin Hsieh, Jianyu Wang, Gauri Joshi, Phillip
B. Gibbons
- Abstract要約: 分散コンセプトドリフト下でのフェデレートラーニング(FL)は、ほとんど探索されていない分野である。
まず, ドリフト適応に対する先行解が, 単一のグローバルモデルで, 停滞するドリフトに不適であることを実証した。
局所的ドリフト検出と階層的クラスタリングに基づくドリフトに反応する2つの新しいクラスタリングアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 30.069809537266575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) under distributed concept drift is a largely
unexplored area. Although concept drift is itself a well-studied phenomenon, it
poses particular challenges for FL, because drifts arise staggered in time and
space (across clients). Our work is the first to explicitly study data
heterogeneity in both dimensions. We first demonstrate that prior solutions to
drift adaptation, with their single global model, are ill-suited to staggered
drifts, necessitating multi-model solutions. We identify the problem of drift
adaptation as a time-varying clustering problem, and we propose two new
clustering algorithms for reacting to drifts based on local drift detection and
hierarchical clustering. Empirical evaluation shows that our solutions achieve
significantly higher accuracy than existing baselines, and are comparable to an
idealized algorithm with oracle knowledge of the ground-truth clustering of
clients to concepts at each time step.
- Abstract(参考訳): 分散コンセプトドリフト下でのフェデレートラーニング(FL)は、ほとんど探索されていない分野である。
コンセプトドリフトはそれ自体はよく研究された現象であるが、時間と空間(クロスクライアント)でドリフトが発生するため、flには特別な課題がある。
私たちの研究は、両方の次元におけるデータの多様性を明示的に研究した最初のものです。
まず, ドリフト適応に対する先行解は, 単一のグローバルモデルで, 停滞するドリフトに不適であり, マルチモデル解を必要とすることを示す。
我々は,ドリフト適応の問題を時間変動クラスタリング問題として認識し,局所ドリフト検出と階層クラスタリングに基づくドリフトに反応する2つの新しいクラスタリングアルゴリズムを提案する。
経験的評価は,我々のソリューションが既存のベースラインよりもはるかに高い精度を実現し,各段階におけるクライアントのゼロ・トゥルースクラスタリングに関するオラクル知識を持つ理想的なアルゴリズムに匹敵することを示す。
関連論文リスト
- Classifier Clustering and Feature Alignment for Federated Learning under Distributed Concept Drift [5.566951183982973]
本研究では、条件分布が$P(Y|X)$変化する実ドリフトに焦点を当てる。
分類器クラスタリングと機能アライメントを備えたフェデレート学習フレームワークであるFedCCFAを提案する。
以上の結果から,FedCCFAは様々なコンセプトドリフト環境下での既存手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-10-24T07:04:52Z) - A-FedPD: Aligning Dual-Drift is All Federated Primal-Dual Learning Needs [57.35402286842029]
本稿では,グローバルクライアントとローカルクライアントの仮想二重配向を構成する新しいアラインドデュアルデュアル(A-FedPD)手法を提案する。
本稿では,A-FedPD方式の非集中型セキュリティコンセンサスに対する効率を包括的に分析する。
論文 参考訳(メタデータ) (2024-09-27T17:00:32Z) - Unveiling Group-Specific Distributed Concept Drift: A Fairness Imperative in Federated Learning [4.3310896118860445]
グループ固有の概念ドリフト(グループ特化概念ドリフト)とは、あるグループが時間とともに概念をドリフトし、別のグループがそうでない状況を指す。
連合学習のフレームワークでは、各クライアントは、同じ概念を共有しながら、独立してグループ固有の概念ドリフトを経験できる。
我々は、グループ固有の分散コンセプトドリフトに取り組むために、既存の分散コンセプトドリフト適応アルゴリズムを適用した。
論文 参考訳(メタデータ) (2024-02-12T11:35:25Z) - A comprehensive analysis of concept drift locality in data streams [3.5897534810405403]
概念ドリフトは、進化するデータ特性への効果的なモデル適応のために検出されなければならない。
本稿では,その局所性とスケールに基づいて,概念ドリフトの新たな分類法を提案する。
我々は, 様々な難易度において, 9つの最先端ドリフト検出器の比較評価を行った。
論文 参考訳(メタデータ) (2023-11-10T20:57:43Z) - Every Parameter Matters: Ensuring the Convergence of Federated Learning
with Dynamic Heterogeneous Models Reduction [22.567754688492414]
クロスデバイス・フェデレーション・ラーニング(FL)は、ユニークなコントリビューションを行う可能性のあるローエンドのクライアントが、リソースのボトルネックのため、大規模なモデルのトレーニングから除外されるという、大きな課題に直面します。
近年,グローバルモデルから縮小サイズのモデルを抽出し,それに応じてローカルクライアントに適用することによって,モデル不均一FLに焦点を当てている。
本稿では,オンラインモデル抽出を用いた不均一FLアルゴリズムの一元化フレームワークを提案し,一般収束解析を初めて提供する。
論文 参考訳(メタデータ) (2023-10-12T19:07:58Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Decentralized Personalized Federated Learning for Min-Max Problems [79.61785798152529]
本稿では,より広い範囲の最適化問題を含むサドル点問題に対して,PFLを初めて検討した。
この問題に対処するための新しいアルゴリズムを提案し、滑らかな(強く)凸-(強く)凹点問題を理論的に解析する。
両線形問題に対する数値実験と, 対向雑音を有するニューラルネットワークは, 提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-06-14T10:36:25Z) - Deep Magnification-Flexible Upsampling over 3D Point Clouds [103.09504572409449]
本稿では,高密度点雲を生成するためのエンドツーエンド学習ベースのフレームワークを提案する。
まずこの問題を明示的に定式化し、重みと高次近似誤差を判定する。
そこで我々は,高次改良とともに,統一重みとソート重みを適応的に学習する軽量ニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-25T14:00:18Z) - DriftSurf: A Risk-competitive Learning Algorithm under Concept Drift [12.579800289829963]
ストリーミングデータから学ぶとき、概念ドリフト(concept drift)とも呼ばれるデータ分散の変化は、以前に学習したモデルが不正確なものになる可能性がある。
本研究では,ドリフト検出をより広範な安定状態/反応性状態プロセスに組み込むことにより,従来のドリフト検出に基づく手法を拡張する適応学習アルゴリズムを提案する。
このアルゴリズムはベースラーナーにおいて汎用的であり、様々な教師付き学習問題に適用できる。
論文 参考訳(メタデータ) (2020-03-13T23:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。