論文の概要: IP-FL: Incentivized and Personalized Federated Learning
- arxiv url: http://arxiv.org/abs/2304.07514v4
- Date: Fri, 11 Oct 2024 17:44:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-14 13:29:43.415156
- Title: IP-FL: Incentivized and Personalized Federated Learning
- Title(参考訳): IP-FL: インセンティブとパーソナライズされたフェデレーションラーニング
- Authors: Ahmad Faraz Khan, Xinran Wang, Qi Le, Zain ul Abdeen, Azal Ahmad Khan, Haider Ali, Ming Jin, Jie Ding, Ali R. Butt, Ali Anwar,
- Abstract要約: まず、インセンティブとパーソナライゼーションを相互関連課題として扱い、パーソナライズされた学習を促進するインセンティブメカニズムを用いて解決することを提案する。
我々のアプローチは、高品質なデータを持つ自己認識型クライアントに対するパーソナライズされたモデル魅力を高め、アクティブで一貫した参加につながります。
- 参考スコア(独自算出の注目度): 13.13354915338396
- License:
- Abstract: Existing incentive solutions for traditional Federated Learning (FL) focus on individual contributions to a single global objective, neglecting the nuances of clustered personalization with multiple cluster-level models and the non-monetary incentives such as personalized model appeal for clients. In this paper, we first propose to treat incentivization and personalization as interrelated challenges and solve them with an incentive mechanism that fosters personalized learning. Additionally, current methods depend on an aggregator for client clustering, which is limited by a lack of access to clients' confidential information due to privacy constraints, leading to inaccurate clustering. To overcome this, we propose direct client involvement, allowing clients to indicate their cluster membership preferences based on data distribution and incentive-driven feedback. Our approach enhances the personalized model appeal for self-aware clients with high-quality data leading to their active and consistent participation. Our evaluation demonstrates significant improvements in test accuracy (8-45%), personalized model appeal (3-38%), and participation rates (31-100%) over existing FL models, including those addressing data heterogeneity and personalization.
- Abstract(参考訳): 従来のフェデレートラーニング(FL)のインセンティブソリューションは、複数のクラスタレベルのモデルによるクラスタ化されたパーソナライゼーションのニュアンスや、顧客に対するパーソナライズされたモデルアピールのような非金銭的なインセンティブを無視し、単一のグローバル目標に対する個々のコントリビューションに焦点を当てている。
本稿では、まず、インセンティブとパーソナライズを相互関連課題として扱い、パーソナライズされた学習を促進するインセンティブメカニズムを用いて解決することを提案する。
さらに、現在のメソッドはクライアントクラスタリングのアグリゲータに依存しており、プライバシの制約によるクライアントの機密情報へのアクセスの欠如によって制限され、不正確なクラスタリングにつながる。
そこで本研究では,データ分散とインセンティブ駆動型フィードバックに基づいて,クライアントがクラスタメンバシップの好みを示すことができる,ダイレクトクライアントの関与を提案する。
我々のアプローチは、高品質なデータを持つ自己認識型クライアントに対するパーソナライズされたモデル魅力を高め、アクティブで一貫した参加につながります。
本評価では,データの不均一性やパーソナライズなどを含む既存のFLモデルよりも,テスト精度(8-45%),パーソナライズされたモデルアピール(3-38%),参加率(31-100%)が有意に向上した。
関連論文リスト
- Personalized Federated Knowledge Graph Embedding with Client-Wise Relation Graph [49.66272783945571]
クライアント関係グラフを用いた個人化フェデレーション知識グラフを提案する。
PFedEGは、近隣のクライアントから埋め込まれたエンティティを集約することで、各クライアントに対してパーソナライズされた補完知識を学習する。
我々は4つのベンチマークデータセットの広範な実験を行い、その手法を最先端モデルに対して評価する。
論文 参考訳(メタデータ) (2024-06-17T17:44:53Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - DCFL: Non-IID awareness Data Condensation aided Federated Learning [0.8158530638728501]
フェデレートラーニング(Federated Learning)とは、特定の量のプライベートデータセットを持つクライアントを活用して、中央サーバがグローバルモデルを反復的にトレーニングする分散学習パラダイムである。
問題は、クライアントサイドのプライベートデータが同一かつ独立して分散されないという事実にある。
本稿では、CKA(Centered Kernel Alignment)法を用いてクライアントをグループに分割し、IID非認識のデータセット凝縮法を用いてクライアントを完全化するDCFLを提案する。
論文 参考訳(メタデータ) (2023-12-21T13:04:24Z) - FedJETs: Efficient Just-In-Time Personalization with Federated Mixture
of Experts [48.78037006856208]
FedJETsは、Federated Learning(FL)セットアップ内でMixture-of-Experts(MoE)フレームワークを使用することで、新しいソリューションである。
我々の方法は、クライアントの多様性を活用して、クラスのサブセットの異なる専門家を訓練し、最も関係のある専門家に入力をルーティングするゲーティング機能を提供します。
我々の手法は、競争力のあるゼロショット性能を維持しながら、アートFL設定時の精度を最大18%向上させることができる。
論文 参考訳(メタデータ) (2023-06-14T15:47:52Z) - Personalized Privacy-Preserving Framework for Cross-Silo Federated
Learning [0.0]
Federated Learning(FL)は有望な分散ディープラーニング(DL)フレームワークであり、プライベートデータを共有することなく、クライアント間で共同でトレーニングされたDLベースのアプローチを可能にする。
本稿では,PPPFL(Personalized Privacy-Preserving Federated Learning)という新しいフレームワークを提案する。
提案するフレームワークは,MNIST,Fashion-MNIST,CIFAR-10,CIFAR-100など,さまざまなデータセット上で複数のFLベースラインより優れている。
論文 参考訳(メタデータ) (2023-02-22T07:24:08Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Personalizing or Not: Dynamically Personalized Federated Learning with
Incentives [37.42347737911428]
個人データを共有せずにパーソナライズされたモデルを学習するためのパーソナライズド・フェデレーション・ラーニング(FL)を提案する。
パーソナライズレートは、パーソナライズされたモデルのトレーニングを希望する顧客の割合として測定され、フェデレーションされた設定に導入され、DyPFLを提案する。
この技術は、クライアントがローカルモデルをパーソナライズすることへのインセンティブを与えると同時に、より優れたパフォーマンスでグローバルモデルを採用できるようにする。
論文 参考訳(メタデータ) (2022-08-12T09:51:20Z) - To Federate or Not To Federate: Incentivizing Client Participation in
Federated Learning [22.3101738137465]
フェデレートラーニング(FL)は、共通の機械学習モデルをトレーニングしようとするクライアントのグループ間のコラボレーションを促進する。
本稿では,グローバルモデルにインセンティブを与えるクライアントの割合を明示的に最大化する,IncFLと呼ばれるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-30T04:03:31Z) - Self-Aware Personalized Federated Learning [32.97492968378679]
本研究では,ベイズ階層モデルにインスパイアされた自己認識型パーソナライズド・フェデレーション・ラーニング(FL)手法を開発した。
本手法では,従来の局所微調整法とサンプルサイズに基づくアグリゲーションの代わりに,不確実性駆動型局所トレーニングステップとアグリゲーションルールを用いる。
合成データ、Amazon Alexa音声データ、MNIST、FEMNIST、CIFAR10、Sent140などの公開データセットに関する実験的研究により、提案手法はパーソナライズ性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-17T19:02:25Z) - On the Convergence of Clustered Federated Learning [57.934295064030636]
統合学習システムでは、例えばモバイルデバイスや組織参加者といったクライアントは通常、個人の好みや行動パターンが異なる。
本稿では,クライアントグループと各クライアントを統一最適化フレームワークで活用する,新しい重み付きクライアントベースクラスタリングFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T02:39:19Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。