論文の概要: FedGTEA: Federated Class-Incremental Learning with Gaussian Task Embedding and Alignment
- arxiv url: http://arxiv.org/abs/2510.12927v1
- Date: Tue, 14 Oct 2025 19:02:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.390369
- Title: FedGTEA: Federated Class-Incremental Learning with Gaussian Task Embedding and Alignment
- Title(参考訳): FedGTEA: ガウス的タスク埋め込みとアライメントによる連携型クラスインクリメンタルラーニング
- Authors: Haolin Li, Hoda Bidkhori,
- Abstract要約: FedGTEA(Federated Gaussian Task Embedding and Alignment)と呼ばれる,FedGTEA(Federated Class Incremental Learning)のための新しいフレームワークを導入する。
FedGTEAは、タスク固有の知識を捉え、スケーラブルでコミュニケーション効率の良い方法で不確実性をモデル化するように設計されている。
- 参考スコア(独自算出の注目度): 4.031060983228927
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel framework for Federated Class Incremental Learning, called Federated Gaussian Task Embedding and Alignment (FedGTEA). FedGTEA is designed to capture task-specific knowledge and model uncertainty in a scalable and communication-efficient manner. At the client side, the Cardinality-Agnostic Task Encoder (CATE) produces Gaussian-distributed task embeddings that encode task knowledge, address statistical heterogeneity, and quantify data uncertainty. Importantly, CATE maintains a fixed parameter size regardless of the number of tasks, which ensures scalability across long task sequences. On the server side, FedGTEA utilizes the 2-Wasserstein distance to measure inter-task gaps between Gaussian embeddings. We formulate the Wasserstein loss to enforce inter-task separation. This probabilistic formulation not only enhances representation learning but also preserves task-level privacy by avoiding the direct transmission of latent embeddings, aligning with the privacy constraints in federated learning. Extensive empirical evaluations on popular datasets demonstrate that FedGTEA achieves superior classification performance and significantly mitigates forgetting, consistently outperforming strong existing baselines.
- Abstract(参考訳): 本稿では,FedGTEA(Federated Gaussian Task Embedding and Alignment)と呼ばれる,FedGTEA(Federated Class Incremental Learning)のための新しいフレームワークを紹介する。
FedGTEAは、タスク固有の知識を捉え、スケーラブルでコミュニケーション効率の良い方法で不確実性をモデル化するように設計されている。
クライアント側では、CATE(Cardinality-Agnostic Task Encoder)がタスク知識を符号化し、統計的不均一性に対処し、データの不確実性を定量化するガウス分散タスク埋め込みを生成する。
重要なことは、CATEはタスクの数に関係なく固定パラメータサイズを維持しており、長いタスクシーケンスにわたるスケーラビリティを保証する。
サーバ側では、FedGTEAは2-ワッサーシュタイン距離を用いてガウス埋め込み間のタスク間ギャップを測定する。
我々はワッサーシュタインの損失を公式化し、タスク間の分離を強制する。
この確率的定式化は、表現学習を強化するだけでなく、潜伏埋め込みの直接伝達を回避し、フェデレート学習におけるプライバシー制約と整合してタスクレベルのプライバシも維持する。
一般的なデータセットに対する大規模な経験的評価は、FedGTEAが優れた分類性能を達成し、忘れることを大幅に軽減し、一貫して強力なベースラインを上回っていることを示している。
関連論文リスト
- Learning-To-Measure: In-context Active Feature Acquisition [10.604433053831405]
我々はメタAFA問題を定式化し、そこでは様々なタスクで獲得ポリシーを学習することを目的としている。
本稿では,未確認タスクに対する信頼性の高い不確実性定量化と,不確実性誘導機能獲得エージェントであるL2Mを紹介する。
L2Mは、振り返り不足のあるデータセットを直接操作し、メタAFAタスクをコンテキスト内で実行する。
論文 参考訳(メタデータ) (2025-10-14T15:23:32Z) - Task-Agnostic Federated Continual Learning via Replay-Free Gradient Projection [23.99793728516052]
フェデレートされた連続学習(FCL)により、分散クライアントデバイスは、多様で進化するタスクにわたるストリーミングデータから学習することができる。
タスク識別予測(FedProTIP)を用いた連立勾配予測型連続学習を提案する。
このフレームワークは、クライアントのアップデートをグローバルモデルの以前に学習された表現によって分散されたサブスペースの補空間に投影することで、忘れを軽減します。
論文 参考訳(メタデータ) (2025-09-25T21:20:00Z) - Label-shift robust federated feature screening for high-dimensional classification [14.252760098879186]
本稿では,既存のスクリーニング手法を統一する汎用フレームワークを提案し,ラベルシフト型ロバストな機能スクリーニング(LR-FFS)を提案する。
この枠組みに基づいて、LR-FFSは条件分布関数と期待値を活用し、計算負荷を加えることなくラベルシフトに対処する。
LR-FFSの各種クライアント環境における優れた性能を示す実験結果と理論的解析を行った。
論文 参考訳(メタデータ) (2025-05-31T04:14:49Z) - Task-Oriented Low-Label Semantic Communication With Self-Supervised Learning [67.06363342414397]
タスク指向の意味コミュニケーションは、正確なメッセージではなく意味情報を伝達することで伝達効率を高める。
深層学習(DL)に基づく意味コミュニケーションは、意味抽出、伝達、解釈に不可欠な意味知識を効果的に育むことができる。
タスク推論性能を向上させるための自己教師付き学習ベースセマンティックコミュニケーションフレームワーク(SLSCom)を提案する。
論文 参考訳(メタデータ) (2025-05-26T13:06:18Z) - Stratify: Rethinking Federated Learning for Non-IID Data through Balanced Sampling [9.774529150331297]
Stratifyは、トレーニング全体を通してクラスとフィーチャーの配布を体系的に管理するために設計された、新しいFLフレームワークである。
従来の階層化サンプリングに着想を得て,SLS(Stratified Label Schedule)を用いてラベル間のバランスの取れた露出を確保する。
プライバシーを守るため,同型暗号化を利用したセキュアクライアント選択プロトコルを実装した。
論文 参考訳(メタデータ) (2025-04-18T04:44:41Z) - Efficient Federated Learning against Heterogeneous and Non-stationary Client Unavailability [23.466997173249034]
FedAPMには、(i)標準のFedAvgに対して(1)O$追加のメモリ計算で使用不能な計算を行うための新しい構造が含まれている。
非定常力学であるにもかかわらず、FedAPMは静止点にも収束することを示す。
論文 参考訳(メタデータ) (2024-09-26T00:38:18Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Federated Knowledge Graph Completion via Latent Embedding Sharing and
Tensor Factorization [51.286715478399515]
FLEST(Federated Latent Embedding Factorization)は、KGの完全化にFederated Factorizationを用いた新しい手法である。
FLESTは埋め込み行列を分解し、潜伏辞書の埋め込みを共有することでプライバシーリスクを低減している。
実証的な結果はFLESTの有効性と効率を示し、パフォーマンスとプライバシのバランスのとれたソリューションを提供する。
論文 参考訳(メタデータ) (2023-11-17T06:03:56Z) - Semantically Aligned Task Decomposition in Multi-Agent Reinforcement
Learning [56.26889258704261]
我々は,MARL(SAMA)における意味的アライズされたタスク分解という,新しい「不整合」意思決定手法を提案する。
SAMAは、潜在的な目標を示唆し、適切な目標分解とサブゴールアロケーションを提供するとともに、自己回帰に基づくリプランニングを提供する、チェーン・オブ・シントによる事前訓練された言語モデルを促進する。
SAMAは, 最先端のASG法と比較して, 試料効率に有意な優位性を示す。
論文 参考訳(メタデータ) (2023-05-18T10:37:54Z) - Task-Adaptive Saliency Guidance for Exemplar-free Class Incremental Learning [60.501201259732625]
EFCILにタスク適応型サリエンシを導入し、タスク適応型サリエンシ・スーパービジョン(TASS)と呼ばれる新しいフレームワークを提案する。
提案手法は,CIFAR-100, Tiny-ImageNet, ImageNet-Subset EFCILベンチマークを用いて,タスク間のサリエンシマップの保存や,最先端の成果の達成に有効であることを示す。
論文 参考訳(メタデータ) (2022-12-16T02:43:52Z) - Learning Stable Classifiers by Transferring Unstable Features [59.06169363181417]
本研究では,素早い相関関係の存在下での伝達学習について検討する。
提案手法は, ソースタスクで学習した安定な特徴抽出器を直接転送しても, 対象タスクのバイアスを排除できないことを実験的に実証する。
我々は、ソースタスクの不安定な特徴とターゲットタスクの不安定な特徴が直接関連していると仮定する。
論文 参考訳(メタデータ) (2021-06-15T02:41:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。