論文の概要: FedProK: Trustworthy Federated Class-Incremental Learning via Prototypical Feature Knowledge Transfer
- arxiv url: http://arxiv.org/abs/2405.02685v1
- Date: Sat, 4 May 2024 14:57:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 18:49:54.466291
- Title: FedProK: Trustworthy Federated Class-Incremental Learning via Prototypical Feature Knowledge Transfer
- Title(参考訳): FedProK: 原型的特徴的知識伝達による信頼に値するフェデレーションクラスインクリメンタルラーニング
- Authors: Xin Gao, Xin Yang, Hao Yu, Yan Kang, Tianrui Li,
- Abstract要約: フェデレーション・クラス・インクリメンタル・ラーニング(FCIL)は、動的フェデレーション・ラーニング(FL)における新しいクラスを学ぶために、以前の知識を継続的に移行することに焦点を当てている。
本稿では,空間的時間的知識伝達を行うための新しい知識表現として,FedProK(Federated Prototypeal Feature Knowledge Transfer)を提案する。
- 参考スコア(独自算出の注目度): 22.713451501707908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Class-Incremental Learning (FCIL) focuses on continually transferring the previous knowledge to learn new classes in dynamic Federated Learning (FL). However, existing methods do not consider the trustworthiness of FCIL, i.e., improving continual utility, privacy, and efficiency simultaneously, which is greatly influenced by catastrophic forgetting and data heterogeneity among clients. To address this issue, we propose FedProK (Federated Prototypical Feature Knowledge Transfer), leveraging prototypical feature as a novel representation of knowledge to perform spatial-temporal knowledge transfer. Specifically, FedProK consists of two components: (1) feature translation procedure on the client side by temporal knowledge transfer from the learned classes and (2) prototypical knowledge fusion on the server side by spatial knowledge transfer among clients. Extensive experiments conducted in both synchronous and asynchronous settings demonstrate that our FedProK outperforms the other state-of-the-art methods in three perspectives of trustworthiness, validating its effectiveness in selectively transferring spatial-temporal knowledge.
- Abstract(参考訳): フェデレーション・クラス・インクリメンタル・ラーニング(FCIL)は、動的フェデレーション・ラーニング(FL)における新しいクラスを学ぶために、以前の知識を継続的に移行することに焦点を当てている。
しかし,既存手法では,FCILの信頼性,すなわち連続性,プライバシ,効率性を同時に向上させることを考慮していない。
この問題に対処するため,FedProK(Federated Prototypeal Feature Knowledge Transfer)を提案する。
具体的には,(1)学習クラスからの時間的知識伝達によるクライアント側の特徴翻訳手順と,(2)クライアント間の空間的知識伝達によるサーバ側のプロトタイプ的知識融合である。
同期と非同期の両方で実施された大規模な実験により、FedProKは3つの信頼性の観点から他の最先端手法よりも優れており、空間的時間的知識を選択的に伝達する効果が検証された。
関連論文リスト
- Evidential Federated Learning for Skin Lesion Image Classification [9.112380151690862]
FedEvPromptは、明らかなディープラーニング、迅速なチューニング、知識蒸留の原則を統合する、連合学習アプローチである。
ラウンドベースの学習パラダイムで最適化されており、各ラウンドではローカルモデルをトレーニングし、次にすべてのフェデレーションクライアントとアテンションマップを共有する。
結論としてFedEvPromptは、データ不均一性、不均衡、プライバシー保護、知識共有といった課題に効果的に対処する、連邦学習に有望なアプローチを提供する。
論文 参考訳(メタデータ) (2024-11-15T09:34:28Z) - Personalized Federated Continual Learning via Multi-granularity Prompt [33.84680453375976]
一般化表現をパーソナライズするために,多粒性プロンプト,すなわち粗粒大大域的プロンプトと細粒局所プロンプトという新しい概念を提案する。
粗粒度知識の排他的融合により、クライアント間の共通知識の伝達と洗練を実現し、パーソナライズの性能をさらに向上する。
論文 参考訳(メタデータ) (2024-06-27T13:41:37Z) - Open Continual Feature Selection via Granular-Ball Knowledge Transfer [16.48797678104989]
データ前処理における連続的特徴選択(CFS)のための新しいフレームワークを提案する。
提案手法は,連続学習(CL)とグラニュラーボールコンピューティング(GBC)の強みを組み合わせたものである。
提案手法は,最先端の特徴選択法と比較して,有効性と効率の両面で優れていることを示す。
論文 参考訳(メタデータ) (2024-03-15T12:43:03Z) - Federated Continual Learning via Knowledge Fusion: A Survey [33.74289759536269]
FCL(Federated Continual Learning)は、フェデレートされた学習環境と継続的な学習環境の両方において、モデル学習に対処する新たなパラダイムである。
FCLの主な目的は、異なるクライアントからの異種知識を融合し、新しいタスクを学習しながら、以前のタスクの知識を保持することである。
本研究は,フェデレーション学習と継続学習をまず重視し,その統合,すなわちFCL,特にFCLを知識融合を通じて議論する。
論文 参考訳(メタデータ) (2023-12-27T08:47:39Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - CLIP-based Synergistic Knowledge Transfer for Text-based Person
Retrieval [66.93563107820687]
個人検索(TPR)のためのCLIPベースのSynergistic Knowledge Transfer(CSKT)アプローチを提案する。
入力側でCLIPの知識を探索するために、まず、テキスト・ツー・イメージと画像・ツー・テキストの双方向プロンプトと結合プロンプトによって構築された双方向プロンプト転送(BPT)モジュールを提案する。
CSKTは、トレーニングパラメータがモデル全体の7.4%を占めるだけで、3つのベンチマークデータセットで最先端のアプローチを上回っている。
論文 参考訳(メタデータ) (2023-09-18T05:38:49Z) - Selective Knowledge Sharing for Privacy-Preserving Federated
Distillation without A Good Teacher [52.2926020848095]
フェデレーション学習は、ホワイトボックス攻撃に脆弱で、異種クライアントへの適応に苦慮している。
本稿では,選択的FD(Selective-FD)と呼ばれるFDのための選択的知識共有機構を提案する。
論文 参考訳(メタデータ) (2023-04-04T12:04:19Z) - Communication-Efficient and Privacy-Preserving Feature-based Federated
Transfer Learning [11.758703301702012]
フェデレーション学習は、クライアントのプライバシを保存することで、関心が高まりつつある。
無線帯域が限られているため、無線リンクによるフェデレート学習の通信効率が重要となる。
上りペイロードを5桁以上削減する革新的な手法として,特徴に基づくフェデレーション・トランスファー・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-09-12T16:48:52Z) - Long-tail Recognition via Compositional Knowledge Transfer [60.03764547406601]
末尾クラスの少数ショット問題に対処する長尾認識のための新しい戦略を導入する。
我々の目標は、情報に富んだ共通クラスから得られた知識を、意味的に類似しているがデータに富む稀なクラスに伝達することである。
実験結果から,本手法は稀なクラスにおいて,堅牢な共通クラス性能を維持しつつ,大幅な性能向上を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-12-13T15:48:59Z) - Federated Continual Learning with Weighted Inter-client Transfer [79.93004004545736]
我々は,新しい連合型連続学習フレームワークFederated Weighted Inter-client Transfer(FedWeIT)を提案する。
FedWeITは、ネットワークの重みをグローバルなフェデレーションパラメータとスパースなタスク固有のパラメータに分解し、各クライアントは他のクライアントから選択的な知識を受け取る。
我々はFedWeITを既存のフェデレーション学習法や継続学習法に対して検証し、我々のモデルは通信コストを大幅に削減してそれらを著しく上回っている。
論文 参考訳(メタデータ) (2020-03-06T13:33:48Z) - Transfer Heterogeneous Knowledge Among Peer-to-Peer Teammates: A Model
Distillation Approach [55.83558520598304]
本研究は, モデル蒸留により, 複数の学生間で経験と伝達値関数を再利用する新しい手法を提案する。
また、異種知識を活用するための効率的な通信プロトコルの設計方法について述べる。
提案するフレームワークである学習・指導カテゴリー強化は,学習の進捗を安定化・加速する上で有望な性能を示す。
論文 参考訳(メタデータ) (2020-02-06T11:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。