論文の概要: Latte: Collaborative Test-Time Adaptation of Vision-Language Models in Federated Learning
- arxiv url: http://arxiv.org/abs/2507.21494v1
- Date: Tue, 29 Jul 2025 04:27:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.659092
- Title: Latte: Collaborative Test-Time Adaptation of Vision-Language Models in Federated Learning
- Title(参考訳): Latte: フェデレートラーニングにおけるビジョンランゲージモデルの協調的テスト時間適応
- Authors: Wenxuan Bao, Ruxi Deng, Ruizhong Qiu, Tianxin Wei, Hanghang Tong, Jingrui He,
- Abstract要約: 事前学習された視覚言語モデルによるテスト時間適応は、テスト中の分散シフトに対処するために注目が集まっている。
既存のテスト時間適応法は通常、豊富なデータを持つ単一のドメイン用に設計されている。
本稿では,各クライアントがローカルメモリを保守し,それぞれの履歴テストデータから埋め込みを格納する新しいフレームワークであるLatteを提案する。
- 参考スコア(独自算出の注目度): 66.35456997311742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Test-time adaptation with pre-trained vision-language models has gained increasing attention for addressing distribution shifts during testing. Among these approaches, memory-based algorithms stand out due to their training-free nature and ability to leverage historical test data. However, existing test-time adaptation methods are typically designed for a single domain with abundant data. In decentralized settings such as federated learning, applying these methods individually to each client suffers from limited test data, while directly sharing a single global memory via the server prevents proper personalization to each client's unique distribution. To address this, we propose Latte, a novel framework where each client maintains a local memory to store embeddings from its own historical test data and an external memory to store class prototypes from other relevant clients. During communication, each client retrieves prototypes from similar clients under the server's coordination to expand its memory. For local adaptation, Latte utilizes both embedding similarity and uncertainty to enhance model performance. Our theoretical analysis shows that Latte effectively leverages in-distribution clients while remaining robust to out-of-distribution clients. Extensive experiments on domain adaptation and corruption benchmarks validate that Latte achieves superior performance in decentralized settings, while introducing only negligible communication and computation costs. Our code is available at https://github.com/baowenxuan/Latte .
- Abstract(参考訳): 事前学習された視覚言語モデルによるテスト時間適応は、テスト中の分散シフトに対処するために注目が集まっている。
これらのアプローチの中で、メモリベースのアルゴリズムは、トレーニングのない性質と、過去のテストデータを活用する能力のために際立っている。
しかし、既存のテスト時間適応法は、典型的には豊富なデータを持つ単一のドメインのために設計されている。
フェデレート学習などの分散化環境では、これらのメソッドを各クライアントに個別に適用することは、テストデータに制限がある一方で、サーバを介して単一のグローバルメモリを直接共有することは、各クライアント固有のディストリビューションに対する適切なパーソナライズを防止する。
そこで本研究では,各クライアントがローカルメモリを維持して,独自の履歴テストデータと外部メモリから埋め込みを格納し,関連するクライアントからクラスプロトタイプを格納する,新たなフレームワークであるLatteを提案する。
通信中、各クライアントはサーバの調整の下で類似のクライアントからプロトタイプを取得し、メモリを拡張する。
局所的な適応のために、ラッテは埋め込み類似性と不確実性の両方を利用してモデル性能を向上させる。
我々の理論的分析は、ラッテが配当内クライアントを効果的に活用し、配当外クライアントに頑健であることを示している。
ドメイン適応と汚職のベンチマークに関する大規模な実験は、Latteが分散化された環境で優れた性能を達成し、無視可能な通信と計算コストのみを導入していることを証明している。
私たちのコードはhttps://github.com/baowenxuan/Latteで公開されています。
関連論文リスト
- TRAIL: Trust-Aware Client Scheduling for Semi-Decentralized Federated Learning [13.144501509175985]
本稿では、クライアントの状態とコントリビューションを評価するTRAILと呼ばれるTRust-Aware clIent scheduLing機構を提案する。
我々は、エッジサーバとクライアントが信頼できないクラスタ内モデルアグリゲーションとクラスタ間モデルコンセンサスを使用して、共有グローバルモデルをトレーニングする半分散FLフレームワークに焦点を当てる。
実世界のデータセットで行われた実験では、TRAILは最先端のベースラインを上回っ、テスト精度が8.7%向上し、トレーニング損失が15.3%減少した。
論文 参考訳(メタデータ) (2024-12-16T05:02:50Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Exploring One-shot Semi-supervised Federated Learning with A Pre-trained Diffusion Model [40.83058938096914]
我々は,フェデレート拡散にインスパイアされた半教師付き協調学習法であるFedDISCを提案する。
まず、ラベル付きサーバデータのプロトタイプを抽出し、これらのプロトタイプを用いてクライアントデータの擬似ラベルを予測する。
各カテゴリについて、クラスタセントロイドとドメイン固有の表現を計算し、それらの分布のセマンティックおよびスタイリスティックな情報を表す。
これらの表現はサーバに送信され、事前にトレーニングされたデータを使用して、クライアントの分布に応じて合成データセットを生成し、その上でグローバルモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-05-06T14:22:33Z) - When to Trust Aggregated Gradients: Addressing Negative Client Sampling
in Federated Learning [41.51682329500003]
本稿では,各ラウンドにおける集約勾配に対するサーバ学習率を調整するための新しい学習率適応機構を提案する。
我々は、最適なサーバ学習率に肯定的な有意義で堅牢な指標を見つけるために、理論的な推論を行う。
論文 参考訳(メタデータ) (2023-01-25T03:52:45Z) - Federated Learning with Uncertainty via Distilled Predictive
Distributions [14.828509220023387]
筆者らは,各ラウンドにおいて,各クライアントがパラメータや後部予測分布(PPD)だけでなく,後部分布を推定する不確実性を伴うフェデレーション学習の枠組みを提案する。
連邦学習における最近のベイズ的アプローチとは異なり、我々のアプローチでは各クライアントからサーバにパラメータの後方分布全体を送信する必要はない。
我々の手法は、クライアントの後部分布の形式やPDの形式など、制限的な仮定を一切行いません。
論文 参考訳(メタデータ) (2022-06-15T14:24:59Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。