論文の概要: Personalized Federated Learning for Statistical Heterogeneity
- arxiv url: http://arxiv.org/abs/2402.10254v1
- Date: Wed, 7 Feb 2024 12:28:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-25 17:17:49.310688
- Title: Personalized Federated Learning for Statistical Heterogeneity
- Title(参考訳): 統計的不均一性のための個人化フェデレーション学習
- Authors: Muhammad Firdaus and Kyung-Hyune Rhee
- Abstract要約: 人工知能アプリケーションにおけるデータプライバシに関する懸念の高まりとともに、フェデレートラーニング(FL)の人気が高まっている。
本稿では、パーソナライズド・フェデレーション・ラーニング(PFL)分野における現在の研究動向について概説する。
- 参考スコア(独自算出の注目度): 0.021756081703276
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The popularity of federated learning (FL) is on the rise, along with growing
concerns about data privacy in artificial intelligence applications. FL
facilitates collaborative multi-party model learning while simultaneously
ensuring the preservation of data confidentiality. Nevertheless, the problem of
statistical heterogeneity caused by the presence of diverse client data
distributions gives rise to certain challenges, such as inadequate
personalization and slow convergence. In order to address the above issues,
this paper offers a brief summary of the current research progress in the field
of personalized federated learning (PFL). It outlines the PFL concept, examines
related techniques, and highlights current endeavors. Furthermore, this paper
also discusses potential further research and obstacles associated with PFL.
- Abstract(参考訳): 人工知能アプリケーションにおけるデータプライバシに関する懸念の高まりとともに、連邦学習(FL)の人気が高まっている。
flは、データの機密性を保持すると同時に、協調的な多人数モデル学習を促進する。
それでも、多様なクライアントデータ分布の存在による統計的不均一性の問題は、不適切なパーソナライズや遅い収束といった特定の課題を引き起こす。
本稿では,これらの課題に対処するために,パーソナライズ・フェデレーション・ラーニング(pfl)の分野における最近の研究動向について概説する。
PFLの概念を概説し、関連するテクニックを調べ、現在の取り組みを強調している。
さらに,本論文では,PFLに関連するさらなる研究や障害についても論じる。
関連論文リスト
- SoK: Challenges and Opportunities in Federated Unlearning [36.005836768603935]
本論文は、この新興分野における研究動向と課題を特定することを目的として、未学習の未学習文学を深く研究することを目的としている。
論文 参考訳(メタデータ) (2024-03-04T19:35:08Z) - A Comprehensive Survey of Federated Transfer Learning: Challenges,
Methods and Applications [28.677457598856538]
Federated Learning(FL)は、分散機械学習パラダイムであり、参加者がプライバシ保護を備えた集中型モデルを協調的にトレーニングすることを可能にする。
多くのFL法は、各参加者のトレーニングデータとテストデータが同じ特徴空間と同じ基礎分布からサンプリングされないため、うまく機能しない。
この問題を解決するために、フェデレートトランスファーラーニング(FTL)が多くの研究者の注目を集めている。
論文 参考訳(メタデータ) (2024-03-03T03:52:27Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions [71.16718184611673]
プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Heterogeneous Federated Learning: State-of-the-art and Research
Challenges [117.77132819796105]
不均一フェデレートラーニング(HFL)はより困難であり、それに対応するソリューションは多様で複雑である。
HFLの新たな進歩を概説し,既存のHFL手法の新たな分類法を提案する。
HFLにおけるいくつかの重要かつ将来的な研究方向性について論じる。
論文 参考訳(メタデータ) (2023-07-20T06:32:14Z) - Towards Interpretable Federated Learning [19.764172768506132]
フェデレートラーニング(FL)は、複数のデータ所有者が、プライベートなローカルデータを公開せずに、協調して機械学習モデルを構築することを可能にする。
特に金融や医療といったミッションクリティカルなアプリケーションにおいて、パフォーマンス、プライバシ保護、解釈可能性の必要性のバランスをとることが重要です。
我々は、代表的IFL手法、一般的に採用されている性能評価指標、多目的IFL技術構築に向けた有望な方向性を包括的に分析する。
論文 参考訳(メタデータ) (2023-02-27T02:06:18Z) - Vertical Federated Learning: A Structured Literature Review [0.0]
フェデレートラーニング(FL)は、データプライバシのメリットを付加した、有望な分散ラーニングパラダイムとして登場した。
本稿では,VFLにおける最先端のアプローチを論じる構造化文献レビューを行う。
論文 参考訳(メタデータ) (2022-12-01T16:16:41Z) - Towards Federated Long-Tailed Learning [76.50892783088702]
データプライバシとクラス不均衡は、多くの機械学習タスクの例外ではなく、標準である。
最近の試みでは、広範にわたるプライベートデータから学習する問題に対処する一方で、長い尾を持つデータから学ぶことが試みられている。
本稿では,プライバシ保護フェデレーション学習(FL)フレームワークのコンテキスト下での長期的データ分散(LT)学習に焦点を当てた。
論文 参考訳(メタデータ) (2022-06-30T02:34:22Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Towards Personalized Federated Learning [20.586573091790665]
PFL手法をデータベースおよびモデルベースアプローチに分割するユニークな分類法を提案する。
我々は、その重要なアイデアを強調し、新しいpflアーキテクチャ設計に向けた研究の将来の展望を期待する。
論文 参考訳(メタデータ) (2021-03-01T02:45:19Z) - Voting-based Approaches For Differentially Private Federated Learning [87.2255217230752]
この研究はPapernotらによる非フェデレーションプライバシ学習の知識伝達にインスパイアされている。
我々は,各局所モデルから返されるデータラベル間で投票を行うことで,勾配を平均化する代わりに2つの新しいDPFLスキームを設計する。
我々のアプローチはDPFLの最先端技術に対するプライバシーとユーティリティのトレードオフを大幅に改善します。
論文 参考訳(メタデータ) (2020-10-09T23:55:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。