論文の概要: FAA-CLIP: Federated Adversarial Adaptation of CLIP
- arxiv url: http://arxiv.org/abs/2503.05776v1
- Date: Wed, 26 Feb 2025 01:51:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-16 08:47:05.568655
- Title: FAA-CLIP: Federated Adversarial Adaptation of CLIP
- Title(参考訳): FAA-CLIP:CLIPのFederated Adversarial Adaptation
- Authors: Yihang Wu, Ahmad Chaddad, Christian Desrosiers, Tareef Daqqaq, Reem Kateb,
- Abstract要約: 本稿では,CLIPのFederated Adrial Adaptation(FAA)の新しい手法を提案する。
FAA-CLIPは、集約のための軽量機能適応モジュール(FAM)を使用して、CLIPの大規模な通信コストを処理する。
CLIP を凍結させ,FAM パラメータのみを更新することにより,計算効率も向上する。
- 参考スコア(独自算出の注目度): 10.380503502697039
- License:
- Abstract: Despite the remarkable performance of vision language models (VLMs) such as Contrastive Language Image Pre-training (CLIP), the large size of these models is a considerable obstacle to their use in federated learning (FL) systems where the parameters of local client models need to be transferred to a global server for aggregation. Another challenge in FL is the heterogeneity of data from different clients, which affects the generalization performance of the solution. In addition, natural pre-trained VLMs exhibit poor generalization ability in the medical datasets, suggests there exists a domain gap. To solve these issues, we introduce a novel method for the Federated Adversarial Adaptation (FAA) of CLIP. Our method, named FAA-CLIP, handles the large communication costs of CLIP using a light-weight feature adaptation module (FAM) for aggregation, effectively adapting this VLM to each client's data while greatly reducing the number of parameters to transfer. By keeping CLIP frozen and only updating the FAM parameters, our method is also computationally efficient. Unlike existing approaches, our FAA-CLIP method directly addresses the problem of domain shifts across clients via a domain adaptation (DA) module. This module employs a domain classifier to predict if a given sample is from the local client or the global server, allowing the model to learn domain-invariant representations. Extensive experiments on six different datasets containing both natural and medical images demonstrate that FAA-CLIP can generalize well on both natural and medical datasets compared to recent FL approaches. Our codes are available at https://github.com/AIPMLab/FAA-CLIP.
- Abstract(参考訳): CLIP(Contrastive Language Image Pre-Training)のような視覚言語モデル(VLM)の顕著な性能にもかかわらず、これらのモデルの大きさは、ローカルクライアントモデルのパラメータを集約のためにグローバルサーバに転送する必要があるフェデレートラーニング(FL)システムにおいて、大きな障害となる。
FLにおけるもうひとつの課題は、さまざまなクライアントのデータの不均一性であり、ソリューションの一般化性能に影響を与える。
さらに, 自然学習型VLMは, 医学データセットの一般化能力に乏しいため, 領域ギャップがあることが示唆された。
これらの問題を解決するために,CLIPのFederated Adversarial Adaptation (FAA) の新たな手法を提案する。
FAA-CLIPと呼ばれるこの手法は,重み付けのための軽量特徴適応モジュール(FAM)を用いて,CLIPの通信コストを大幅に削減しつつ,各クライアントのデータにこのVLMを効果的に適応させる。
CLIP を凍結させ,FAM パラメータのみを更新することにより,計算効率も向上する。
既存のアプローチとは異なり、FAA-CLIPメソッドはドメイン適応(DA)モジュールを介してクライアント間でのドメインシフトの問題に直接対処する。
このモジュールはドメイン分類器を使用して、あるサンプルがローカルクライアントまたはグローバルサーバからのものであるかどうかを予測し、モデルがドメイン不変表現を学習できるようにする。
自然画像と医療画像の両方を含む6つのデータセットに対する大規模な実験により、FAA-CLIPは、最近のFLアプローチと比較して、自然画像と医療画像の両方でうまく一般化できることが示された。
私たちのコードはhttps://github.com/AIPMLab/FAA-CLIP.comで公開されています。
関連論文リスト
- Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - FedPIA -- Permuting and Integrating Adapters leveraging Wasserstein Barycenters for Finetuning Foundation Models in Multi-Modal Federated Learning [7.005516664708197]
FLとPEFTの単純な組み合わせを改善したFedPIAという新しいフレームワークを提案する。
我々は、5つの異なる医療ビジョン言語FLタスク設定で48の医療画像データセットを用いて2000以上のクライアントレベルの実験を行う。
実験の結果,FedPIAは最先端のPEFT-FLベースラインより一貫して優れていた。
論文 参考訳(メタデータ) (2024-12-19T00:24:00Z) - FACMIC: Federated Adaptative CLIP Model for Medical Image Classification [12.166024140377337]
本稿では,CLIPモデルを用いた適応型コントラスト言語画像の分類処理について紹介する。
私たちはCLIP用の軽量で効率的な機能アテンションモジュールを採用し、各クライアントのデータに適した機能を選択します。
本稿では,クライアント間のデータ分散の差異を低減するためのドメイン適応手法を提案する。
論文 参考訳(メタデータ) (2024-10-08T13:24:10Z) - FedBiOT: LLM Local Fine-tuning in Federated Learning without Full Model [48.33280660752336]
大規模言語モデル(LLM)は、適切なデータで微調整した後、多くのドメイン固有のタスクで素晴らしいパフォーマンスを示す。
多くのドメイン固有のデータは、プライベートに複数の所有者に分散される。
我々は,フェデレート学習のための資源効率の高いLLM微調整手法であるFedBiOTを紹介する。
論文 参考訳(メタデータ) (2024-06-25T16:45:47Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - Personalized Retrogress-Resilient Framework for Real-World Medical
Federated Learning [8.240098954377794]
本稿では,各クライアントに対して優れたパーソナライズモデルを生成するために,パーソナライズされた回帰耐性フレームワークを提案する。
実世界の皮膚内視鏡的FLデータセットに関する実験により、我々のパーソナライズされた回帰抵抗性フレームワークが最先端のFL手法より優れていることが証明された。
論文 参考訳(メタデータ) (2021-10-01T13:24:29Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。