論文の概要: Prototype-Guided and Lightweight Adapters for Inherent Interpretation and Generalisation in Federated Learning
- arxiv url: http://arxiv.org/abs/2507.05852v1
- Date: Tue, 08 Jul 2025 10:30:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.850815
- Title: Prototype-Guided and Lightweight Adapters for Inherent Interpretation and Generalisation in Federated Learning
- Title(参考訳): フェデレート学習における固有解釈と一般化のためのプロトタイプガイド型軽量適応器
- Authors: Samuel Ofosu Mensah, Kerol Djoumessi, Philipp Berens,
- Abstract要約: フェデレートラーニング(FL)は、分散データソース間で機械学習モデルを協調的にトレーニングするための、有望なパラダイムを提供する。
本稿では,プロトタイプと軽量アダプタモジュールを用いた固有解釈を提供するFLフレームワークを提案する。
そこで,本研究では,ベースラインアルゴリズムよりも精度が向上した分類タスクを,本質的に解釈可能な機能として示す。
- 参考スコア(独自算出の注目度): 5.904095466127043
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning (FL) provides a promising paradigm for collaboratively training machine learning models across distributed data sources while maintaining privacy. Nevertheless, real-world FL often faces major challenges including communication overhead during the transfer of large model parameters and statistical heterogeneity, arising from non-identical independent data distributions across clients. In this work, we propose an FL framework that 1) provides inherent interpretations using prototypes, and 2) tackles statistical heterogeneity by utilising lightweight adapter modules to act as compressed surrogates of local models and guide clients to achieve generalisation despite varying client distribution. Each client locally refines its model by aligning class embeddings toward prototype representations and simultaneously adjust the lightweight adapter. Our approach replaces the need to communicate entire model weights with prototypes and lightweight adapters. This design ensures that each client's model aligns with a globally shared structure while minimising communication load and providing inherent interpretations. Moreover, we conducted our experiments on a real-world retinal fundus image dataset, which provides clinical-site information. We demonstrate inherent interpretable capabilities and perform a classification task, which shows improvements in accuracy over baseline algorithms.
- Abstract(参考訳): フェデレートラーニング(FL)は、プライバシを維持しながら、分散データソース間で機械学習モデルを協調的にトレーニングするための、有望なパラダイムを提供する。
それにもかかわらず、現実世界のFLは、大きなモデルパラメータの転送時の通信オーバーヘッドや、クライアント間での独立したデータ分布から生じる統計的不均一性など、大きな課題に直面していることが多い。
本研究では,FLフレームワークを提案する。
1) 原本的解釈を原本を用いて提供し,
2) ローカルモデルとガイドクライアントの圧縮サロゲートとして動作する軽量アダプタモジュールを用いて, クライアント分布の異なる一般化を実現することで, 統計的不均一性に対処する。
各クライアントは、クラス埋め込みをプロトタイプ表現に向けて調整し、軽量アダプタを同時に調整することで、そのモデルをローカルに洗練する。
私たちのアプローチは、プロトタイプと軽量アダプタでモデルウェイト全体を通信する必要性に取って代わるものです。
この設計により、各クライアントのモデルは、通信負荷を最小化し、固有の解釈を提供しながら、グローバルに共有される構造と整合することを保証する。
さらに,臨床現場情報を提供する実世界の網膜基底画像データセットを用いて実験を行った。
そこで,本研究では,ベースラインアルゴリズムよりも精度が向上した分類タスクを,本質的に解釈可能な機能として示す。
関連論文リスト
- Not All Clients Are Equal: Personalized Federated Learning on Heterogeneous Multi-Modal Clients [52.14230635007546]
ファンデーションモデルは多様なマルチモーダルタスクにまたがって顕著な能力を示してきたが、その集中的なトレーニングはプライバシーの懸念を高め、高い伝達コストを引き起こす。
異なるユーザー目的のためにAIモデルをパーソナライズする需要が高まっているため、パーソナライズされたフェデレーションラーニング(PFL)が出現している。
PFLは、各クライアントが他のクライアントの知識を活用して、データを共有することなく、個々のユーザの好みにさらに適応することを可能にする。
論文 参考訳(メタデータ) (2025-05-20T09:17:07Z) - FedAWA: Adaptive Optimization of Aggregation Weights in Federated Learning Using Client Vectors [50.131271229165165]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
ユーザの行動、好み、デバイス特性の相違から生じるデータの異質性は、連合学習にとって重要な課題である。
本稿では,学習過程におけるクライアントベクトルに基づくアダプティブ重み付けを適応的に調整する手法であるAdaptive Weight Aggregation (FedAWA)を提案する。
論文 参考訳(メタデータ) (2025-03-20T04:49:40Z) - FedAli: Personalized Federated Learning Alignment with Prototype Layers for Generalized Mobile Services [9.683642138601464]
フェデレートアライメント(Federated Alignment, FedAli)は、プロトタイプベースの正規化技術であり、パーソナライズされた適応の堅牢性を強化しながら、クライアント間のアライメントを強化する。
コアとなるFedAliは、一般化を強化するために、人間のメモリにインスパイアされたPrototypesレイヤによるアライメントを導入した。
実験の結果,FedAliは不均一な環境下で強いパーソナライゼーションを維持しつつ,クライアントの一般化を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2024-11-15T21:35:21Z) - Personalized Federated Learning via Feature Distribution Adaptation [3.410799378893257]
Federated Learning(FL)は、分散クライアントデータセット間の共通性を利用してグローバルモデルをトレーニングする分散学習フレームワークである。
パーソナライズド・フェデレーション・ラーニング(PFL)は、各クライアントに適した個々のモデルを学習することで、この問題に対処しようとしている。
我々は,グローバルな生成型分類器を局所的な特徴分布に適応させることで,パーソナライズされたモデルを効率的に生成するアルゴリズム,pFedFDAを提案する。
論文 参考訳(メタデータ) (2024-11-01T03:03:52Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Heterogeneous Federated Learning via Personalized Generative Networks [7.629157720712401]
フェデレートラーニング(FL)は、データを共有することなく、複数のクライアントが共通のグローバル機械学習モデルを構築することを可能にする。
本稿では,サーバがクライアント固有のジェネレータを訓練するクライアント間の知識伝達手法を提案する。
論文 参考訳(メタデータ) (2023-08-25T09:37:02Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Visual Prompt Based Personalized Federated Learning [83.04104655903846]
pFedPTと呼ばれる画像分類タスクのための新しいPFLフレームワークを提案し、クライアントのローカルデータ配信情報を暗黙的に表現するためにパーソナライズされた視覚的プロンプトを利用する。
CIFAR10とCIFAR100データセットの実験では、pFedPTは様々な設定でいくつかの最先端(SOTA)PFLアルゴリズムより優れていた。
論文 参考訳(メタデータ) (2023-03-15T15:02:15Z) - CDKT-FL: Cross-Device Knowledge Transfer using Proxy Dataset in Federated Learning [27.84845136697669]
我々は,グローバルモデルとローカルモデル間の知識伝達の程度を研究するために,新しい知識蒸留に基づくアプローチを開発する。
提案手法は局所モデルの大幅な高速化と高いパーソナライズ性能を実現する。
論文 参考訳(メタデータ) (2022-04-04T14:49:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。