論文の概要: FedPNN: One-shot Federated Classification via Evolving Clustering Method
and Probabilistic Neural Network hybrid
- arxiv url: http://arxiv.org/abs/2304.04147v1
- Date: Sun, 9 Apr 2023 03:23:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 17:28:37.854607
- Title: FedPNN: One-shot Federated Classification via Evolving Clustering Method
and Probabilistic Neural Network hybrid
- Title(参考訳): fedpnn:進化的クラスタリング法と確率的ニューラルネットワークハイブリッドによるワンショットフェデレーション分類
- Authors: Polaki Durga Prasad, Yelleti Vivek, Vadlamani Ravi
- Abstract要約: 本稿では,プライバシ保護を指向した2段階のフェデレーション学習手法を提案する。
第1段階では、2つの異なる分布をノイズとして利用して合成データセットを生成する。
第2段階では,FedPNN(Federated Probabilistic Neural Network)が開発され,グローバルに共有する分類モデルの構築に利用されている。
- 参考スコア(独自算出の注目度): 4.241208172557663
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Protecting data privacy is paramount in the fields such as finance, banking,
and healthcare. Federated Learning (FL) has attracted widespread attention due
to its decentralized, distributed training and the ability to protect the
privacy while obtaining a global shared model. However, FL presents challenges
such as communication overhead, and limited resource capability. This motivated
us to propose a two-stage federated learning approach toward the objective of
privacy protection, which is a first-of-its-kind study as follows: (i) During
the first stage, the synthetic dataset is generated by employing two different
distributions as noise to the vanilla conditional tabular generative
adversarial neural network (CTGAN) resulting in modified CTGAN, and (ii) In the
second stage, the Federated Probabilistic Neural Network (FedPNN) is developed
and employed for building globally shared classification model. We also
employed synthetic dataset metrics to check the quality of the generated
synthetic dataset. Further, we proposed a meta-clustering algorithm whereby the
cluster centers obtained from the clients are clustered at the server for
training the global model. Despite PNN being a one-pass learning classifier,
its complexity depends on the training data size. Therefore, we employed a
modified evolving clustering method (ECM), another one-pass algorithm to
cluster the training data thereby increasing the speed further. Moreover, we
conducted sensitivity analysis by varying Dthr, a hyperparameter of ECM at the
server and client, one at a time. The effectiveness of our approach is
validated on four finance and medical datasets.
- Abstract(参考訳): データプライバシ保護は、金融、銀行、ヘルスケアといった分野において最重要である。
フェデレートラーニング(FL)は、分散した分散トレーニングと、グローバルな共有モデルを取得しながらプライバシを保護する能力によって、広く注目を集めている。
しかし、FLは通信オーバーヘッドや限られたリソース能力といった課題を提示している。
これは、プライバシー保護の目的に対して、2段階の連合学習アプローチを提案する動機となった。
(i)第1段階では、バニラ条件付き表状生成逆向ニューラルネットワーク(ctgan)にノイズとして2つの異なる分布を用いて合成データセットを生成し、ctganを改変する。
2)第2段階では,フェデレート確率型ニューラルネットワーク(FedPNN)を開発し,グローバルな分類モデルの構築に利用している。
生成した合成データセットの品質をチェックするために、合成データセットメトリクスも使用しました。
さらに,グローバルモデルをトレーニングするために,クライアントから取得したクラスタセンタをサーバにクラスタ化するメタクラスタ化アルゴリズムを提案する。
PNNはワンパス学習分類器であるにもかかわらず、その複雑さはトレーニングデータサイズに依存する。
そこで本研究では,改良型進化型クラスタリング法(ecm)を用いて,学習データのクラスタ化を行い,さらに高速化した。
さらに,サーバおよびクライアントにおけるECMのハイパーパラメータであるDthrの変化による感度解析を行った。
本手法の有効性は,4つのファイナンスおよび医療データセットで検証した。
関連論文リスト
- Adversarial Federated Consensus Learning for Surface Defect Classification Under Data Heterogeneity in IIoT [8.48069043458347]
産業用IoT(Industrial Internet of Things)における各種エンティティからの十分なトレーニングデータの収集と集中化は難しい。
フェデレートラーニング(FL)は、クライアント間で協調的なグローバルモデルトレーニングを可能にするソリューションを提供する。
我々は,Adversarial Federated Consensus Learning (AFedCL) という新しいFLアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-24T03:59:32Z) - Fed-QSSL: A Framework for Personalized Federated Learning under Bitwidth
and Data Heterogeneity [14.313847382199059]
Fed-QSSL (Federated Quantization-based self-supervised learning scheme) はFLシステムの不均一性に対処するために設計された。
Fed-QSSLは、デ量子化、重み付けされたアグリゲーション、再量子化をデプロイし、最終的に、各クライアントのデバイスのデータ分散と特定のインフラストラクチャの両方にパーソナライズされたモデルを作成する。
論文 参考訳(メタデータ) (2023-12-20T19:11:19Z) - Efficient Cluster Selection for Personalized Federated Learning: A
Multi-Armed Bandit Approach [2.5477011559292175]
フェデレートラーニング(FL)は、データプライバシを優先する、マシンラーニングモデルのための分散トレーニングアプローチを提供する。
本稿では,マルチアームバンディット(MAB)アプローチに触発された動的アッパー信頼境界(dUCB)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-29T16:46:50Z) - Federated cINN Clustering for Accurate Clustered Federated Learning [33.72494731516968]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習に対する革新的なアプローチである。
本稿では,クライアントを複数のグループに頑健にクラスタリングするFederated cINN Clustering Algorithm (FCCA)を提案する。
論文 参考訳(メタデータ) (2023-09-04T10:47:52Z) - Federated Two Stage Decoupling With Adaptive Personalization Layers [5.69361786082969]
フェデレーション学習は、プライバシ制約を維持しながら分散学習を可能にする能力によって、大きな注目を集めている。
本質的には、学習の劣化と収束速度の低下を経験する。
等質なクライアントを同じ群にクラスタリングするという概念を採用することは自然であり、各群内のモデル重みのみを集約することができる。
論文 参考訳(メタデータ) (2023-08-30T07:46:32Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。