論文の概要: FedCTTA: A Collaborative Approach to Continual Test-Time Adaptation in Federated Learning
- arxiv url: http://arxiv.org/abs/2505.13643v1
- Date: Mon, 19 May 2025 18:29:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.482436
- Title: FedCTTA: A Collaborative Approach to Continual Test-Time Adaptation in Federated Learning
- Title(参考訳): FedCTTA:フェデレートラーニングにおける連続的なテスト時間適応のための協調的アプローチ
- Authors: Rakibul Hasan Rajib, Md Akil Raihan Iftee, Mir Sazzat Hossain, A. K. M. Mahbubur Rahman, Sajib Mistry, M Ashraful Amin, Amin Ahsan Ali,
- Abstract要約: Federated Learning (FL)は、生データを共有せずに、分散クライアント間で協調的なモデルトレーニングを可能にする。
FLモデルは、トレーニングとデプロイメントの間の分散シフトによって、しばしばパフォーマンスが低下する。
我々は、フェデレートされた適応のためのプライバシー保護と計算効率のよいフレームワークであるFederated Continual Test-Time Adaptation (FedCTTA)を提案する。
- 参考スコア(独自算出の注目度): 0.956984177686999
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables collaborative model training across distributed clients without sharing raw data, making it ideal for privacy-sensitive applications. However, FL models often suffer performance degradation due to distribution shifts between training and deployment. Test-Time Adaptation (TTA) offers a promising solution by allowing models to adapt using only test samples. However, existing TTA methods in FL face challenges such as computational overhead, privacy risks from feature sharing, and scalability concerns due to memory constraints. To address these limitations, we propose Federated Continual Test-Time Adaptation (FedCTTA), a privacy-preserving and computationally efficient framework for federated adaptation. Unlike prior methods that rely on sharing local feature statistics, FedCTTA avoids direct feature exchange by leveraging similarity-aware aggregation based on model output distributions over randomly generated noise samples. This approach ensures adaptive knowledge sharing while preserving data privacy. Furthermore, FedCTTA minimizes the entropy at each client for continual adaptation, enhancing the model's confidence in evolving target distributions. Our method eliminates the need for server-side training during adaptation and maintains a constant memory footprint, making it scalable even as the number of clients or training rounds increases. Extensive experiments show that FedCTTA surpasses existing methods across diverse temporal and spatial heterogeneity scenarios.
- Abstract(参考訳): フェデレートラーニング(FL)は、生データを共有せずに分散クライアント間で協調的なモデルトレーニングを可能にするため、プライバシに敏感なアプリケーションに最適である。
しかしながら、FLモデルは、トレーニングとデプロイメントの間の分散シフトによって、しばしばパフォーマンスが低下する。
テスト時間適応(TTA)は、テストサンプルのみを使用してモデルを適応させることで、有望なソリューションを提供する。
しかし、FLの既存のTTAメソッドは、計算オーバーヘッド、機能共有によるプライバシーリスク、メモリ制約によるスケーラビリティ上の懸念といった課題に直面している。
これらの制約に対処するために,フェデレートされた連続テスト時間適応(Federated Continual Test-Time Adaptation, FedCTTA)を提案する。
局所的特徴統計の共有に依存する従来の手法とは異なり、FedCTTAは、ランダムに生成されたノイズサンプルのモデル出力分布に基づく類似性を考慮したアグリゲーションを活用することで、直接的特徴交換を避ける。
このアプローチは、データのプライバシを保持しながら、適応的な知識共有を保証する。
さらに、FedCTTAは各クライアントのエントロピーを最小化し、ターゲット分布の進化に対するモデルの信頼性を高める。
提案手法では,サーバ側での適応時のトレーニングの必要性を排除し,メモリフットプリントを一定に維持し,クライアント数やトレーニングラウンドの増加にともなってスケーラブル化を図る。
大規模な実験により、FedCTTAは様々な時間的および空間的不均一性シナリオにまたがる既存の手法を超越していることが示された。
関連論文リスト
- Optimal Transport-Guided Source-Free Adaptation for Face Anti-Spoofing [58.56017169759816]
本稿では,テスト時に顔のアンチスプーフィングモデルをクライアント自身でターゲットドメインに適応させる新しい手法を提案する。
具体的には,プロトタイプベースモデルと最適トランスポート誘導型アダプタを開発した。
近年の手法と比較して、クロスドメインおよびクロスアタック設定では、HTERが19.17%、AUCが8.58%の平均相対的改善が達成されている。
論文 参考訳(メタデータ) (2025-03-29T06:10:34Z) - FedRTS: Federated Robust Pruning via Combinatorial Thompson Sampling [12.067872131025231]
フェデレートラーニング(FL)は、データ共有なしで分散クライアント間で協調的なモデルトレーニングを可能にする。
現在の手法では、疎密性を維持しながらスパースモデルトポロジを周期的に調整することで、動的プルーニングを用いて効率を向上させる。
我々は,堅牢なスパースモデルの開発を目的とした新しいフレームワークであるThompson Sampling (FedRTS) によるフェデレートロバスト刈取を提案する。
論文 参考訳(メタデータ) (2025-01-31T13:26:22Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Asynchronous Federated Learning: A Scalable Approach for Decentralized Machine Learning [0.9208007322096533]
フェデレートラーニング(FL)は、分散機械学習の強力なパラダイムとして登場し、生データを共有することなく、さまざまなクライアント間で協調的なモデルトレーニングを可能にする。
従来のFLアプローチは、同期クライアントのアップデートに依存しているため、スケーラビリティと効率の制限に直面することが多い。
本稿では、クライアントが独立して非同期にグローバルモデルを更新できる非同期フェデレートラーニング(AFL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-23T17:11:02Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - FedAgg: Adaptive Federated Learning with Aggregated Gradients [1.5653612447564105]
我々はFedAggと呼ばれる適応型FEDerated Learningアルゴリズムを提案し、局所モデルパラメータと平均モデルパラメータのばらつきを緩和し、高速モデル収束率を得る。
IIDおよび非IIDデータセット下でのモデル性能の向上と収束速度の促進を目的として,本手法が既存のFL戦略よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-28T08:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。