論文の概要: Personalized Interpretation on Federated Learning: A Virtual Concepts approach
- arxiv url: http://arxiv.org/abs/2406.19631v1
- Date: Fri, 28 Jun 2024 03:39:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 18:00:20.130029
- Title: Personalized Interpretation on Federated Learning: A Virtual Concepts approach
- Title(参考訳): フェデレーション・ラーニングにおけるパーソナライズド・解釈--仮想概念のアプローチ
- Authors: Peng Yan, Guodong Long, Jing Jiang, Michael Blumenstein,
- Abstract要約: 本稿では,クライアント間での非IIDデータのロバスト化と解釈を行う新しいFL法を提案する。
概念ベクトルは、人間とループのプロセスで事前に定義したり、洗練したりすることができる。
提案手法の有効性をベンチマークデータセットで検証した。
- 参考スコア(独自算出の注目度): 33.95613093566137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tackling non-IID data is an open challenge in federated learning research. Existing FL methods, including robust FL and personalized FL, are designed to improve model performance without consideration of interpreting non-IID across clients. This paper aims to design a novel FL method to robust and interpret the non-IID data across clients. Specifically, we interpret each client's dataset as a mixture of conceptual vectors that each one represents an interpretable concept to end-users. These conceptual vectors could be pre-defined or refined in a human-in-the-loop process or be learnt via the optimization procedure of the federated learning system. In addition to the interpretability, the clarity of client-specific personalization could also be applied to enhance the robustness of the training process on FL system. The effectiveness of the proposed method have been validated on benchmark datasets.
- Abstract(参考訳): 非IIDデータに取り組むことは、連邦学習研究におけるオープンな課題である。
既存のFL法は、クライアント間の非IIDの解釈を考慮せずにモデル性能を向上させるために設計されている。
本稿では,クライアント間での非IIDデータのロバスト化と解釈を行う新しいFL法を提案する。
具体的には、各クライアントのデータセットを概念ベクトルの混合として解釈し、各クライアントがエンドユーザに対して解釈可能な概念を表現する。
これらの概念ベクトルは、人間のループプロセスで事前定義されたり、洗練したり、フェデレートされた学習システムの最適化手順を通じて学習することができる。
解釈可能性に加えて、FLシステム上でのトレーニングプロセスの堅牢性を高めるために、クライアント固有のパーソナライゼーションの明確性も適用できる。
提案手法の有効性をベンチマークデータセットで検証した。
関連論文リスト
- FedMAP: Unlocking Potential in Personalized Federated Learning through Bi-Level MAP Optimization [11.040916982022978]
フェデレートラーニング(FL)は、分散データに基づく機械学習モデルの協調トレーニングを可能にする。
クライアント間でのデータはしばしば、クラス不均衡、特徴分散スキュー、サンプルサイズ不均衡、その他の現象によって大きく異なる。
本稿では,バイレベル最適化を用いた新しいベイズPFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T11:28:06Z) - Client2Vec: Improving Federated Learning by Distribution Shifts Aware Client Indexing [8.652459650860592]
Federated Learning(FL)は、プライバシ保護のための分散機械学習パラダイムである。
Client2VecメカニズムはFLトレーニング開始前に各クライアントに対してユニークなクライアントインデックスを生成する。
クライアントインデックスがFLトレーニングプロセスに与える影響を評価する3つのケーススタディを実施。
論文 参考訳(メタデータ) (2024-05-25T13:49:23Z) - Enhancing Data Provenance and Model Transparency in Federated Learning
Systems -- A Database Approach [1.2180726230978978]
Federated Learning (FL)は、分散型エッジデバイス間で機械学習モデルをトレーニングするための有望なパラダイムを提供する。
これらの分散環境におけるデータの完全性とトレーサビリティの確保は、依然として重要な課題である。
FLシステムにおけるデータプロファイランスとモデルの透明性を高めるための最初のアプローチの1つを提案する。
論文 参考訳(メタデータ) (2024-03-03T09:08:41Z) - FedJETs: Efficient Just-In-Time Personalization with Federated Mixture
of Experts [48.78037006856208]
FedJETsは、Federated Learning(FL)セットアップ内でMixture-of-Experts(MoE)フレームワークを使用することで、新しいソリューションである。
我々の方法は、クライアントの多様性を活用して、クラスのサブセットの異なる専門家を訓練し、最も関係のある専門家に入力をルーティングするゲーティング機能を提供します。
我々の手法は、競争力のあるゼロショット性能を維持しながら、アートFL設定時の精度を最大18%向上させることができる。
論文 参考訳(メタデータ) (2023-06-14T15:47:52Z) - DPP-based Client Selection for Federated Learning with Non-IID Data [97.1195165400568]
本稿では,統合学習(FL)のコミュニケーションボトルネックに対処するクライアント選択(CS)手法を提案する。
まず、FLにおけるCSの効果を分析し、各学習ラウンドにおけるトレーニングデータセットの多様化に参加者を適切に選択することで、FLトレーニングを加速させることができることを示す。
我々は、データプロファイリングと決定点プロセス(DPP)サンプリング技術を活用し、DPPに基づく参加者選択(FL-DP$3$S)によるフェデレートラーニング(Federated Learning)と呼ばれるアルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-03-30T13:14:54Z) - Group Personalized Federated Learning [15.09115201646396]
フェデレートラーニング(FL)は、クライアントの物理デバイス上で分散的な方法で共有モデルをトレーニングすることで、データのプライバシを促進するのに役立つ。
本稿では,FLの応用に向けたグループパーソナライズ手法を提案する。
論文 参考訳(メタデータ) (2022-10-04T19:20:19Z) - Federated Learning for Non-IID Data via Client Variance Reduction and
Adaptive Server Update [5.161531917413708]
フェデレーテッド・ラーニング(FL)は、グローバルな機械学習モデルを協調訓練するために使われる新興技術である。
FLの実践的実装の主な障害は、ユーザ間での非独立性およびIdentical(Non-IID)データ分散である。
クライアント側とサーバ側の両方でのトレーニングプロセス全体を強化する手法(ComFed)を提案する。
論文 参考訳(メタデータ) (2022-07-18T05:58:19Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - A Contract Theory based Incentive Mechanism for Federated Learning [52.24418084256517]
フェデレートラーニング(FL)は、データプライバシ保護機械学習パラダイムとして機能し、分散クライアントによってトレーニングされた協調モデルを実現する。
FLタスクを達成するために、タスクパブリッシャはFLサーバに金銭的なインセンティブを支払う必要があり、FLサーバはFLクライアントにタスクをオフロードする。
タスクがクライアントによってプライベートにトレーニングされているという事実から、FLクライアントに対して適切なインセンティブを設計することは困難である。
論文 参考訳(メタデータ) (2021-08-12T07:30:42Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。