論文の概要: FACMIC: Federated Adaptative CLIP Model for Medical Image Classification
- arxiv url: http://arxiv.org/abs/2410.14707v1
- Date: Tue, 08 Oct 2024 13:24:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-27 05:40:43.493763
- Title: FACMIC: Federated Adaptative CLIP Model for Medical Image Classification
- Title(参考訳): FACMIC:医療画像分類のためのFederated Adaptative CLIP Model
- Authors: Yihang Wu, Christian Desrosiers, Ahmad Chaddad,
- Abstract要約: 本稿では,CLIPモデルを用いた適応型コントラスト言語画像の分類処理について紹介する。
私たちはCLIP用の軽量で効率的な機能アテンションモジュールを採用し、各クライアントのデータに適した機能を選択します。
本稿では,クライアント間のデータ分散の差異を低減するためのドメイン適応手法を提案する。
- 参考スコア(独自算出の注目度): 12.166024140377337
- License:
- Abstract: Federated learning (FL) has emerged as a promising approach to medical image analysis that allows deep model training using decentralized data while ensuring data privacy. However, in the field of FL, communication cost plays a critical role in evaluating the performance of the model. Thus, transferring vision foundation models can be particularly challenging due to the significant resource costs involved. In this paper, we introduce a federated adaptive Contrastive Language Image Pretraining CLIP model designed for classification tasks. We employ a light-weight and efficient feature attention module for CLIP that selects suitable features for each client's data. Additionally, we propose a domain adaptation technique to reduce differences in data distribution between clients. Experimental results on four publicly available datasets demonstrate the superior performance of FACMIC in dealing with real-world and multisource medical imaging data. Our codes are available at https://github.com/AIPMLab/FACMIC.
- Abstract(参考訳): フェデレートラーニング(FL)は、データプライバシを確保しつつ、分散データを使用したディープモデルトレーニングを可能にする、医療画像分析の有望なアプローチとして登場した。
しかし、FLの分野では、通信コストがモデルの性能を評価する上で重要な役割を果たす。
したがって、ビジョン基礎モデルの転送は、大きなリソースコストが伴うため、特に困難である。
本稿では,分類タスク用に設計された適応型コントラスト言語画像事前学習CLIPモデルを提案する。
私たちはCLIP用の軽量で効率的な機能アテンションモジュールを採用し、各クライアントのデータに適した機能を選択します。
さらに,クライアント間のデータ分散の差異を低減するために,ドメイン適応手法を提案する。
4つの公開データセットに対する実験結果は、実世界の医療画像データとマルチソースの医療画像データを扱う上で、FACMICの優れた性能を示す。
私たちのコードはhttps://github.com/AIPMLab/FACMIC.comで公開されています。
関連論文リスト
- Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - Federated Alternate Training (FAT): Leveraging Unannotated Data Silos in
Federated Segmentation for Medical Imaging [15.74030550807913]
Federated Learning (FL)は、機械学習(ML)モデルを分散形式でトレーニングし、限られたデータマイグレーションコストでデータのプライバシを強化することを目的としている。
現在のFLベースの医療画像研究の多くは、サイロにはトレーニングのための基礎的な真理ラベルがあると考えている。
我々は、アノテーション付きデータサイロとアノテーションなしデータサイロ間のトレーニングを変更する、代替トレーニングベースのフレームワークであるFederated Alternate Training (FAT)を提案する。
論文 参考訳(メタデータ) (2023-04-18T22:21:40Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - Federated Multilingual Models for Medical Transcript Analysis [11.877236847857336]
大規模多言語モデルを学習するための連合学習システムを提案する。
トレーニングデータはすべて、中央に送信されることはない。
本研究では,グローバルモデルの性能を,局所的に行うトレーニングステップによってさらに向上させることができることを示す。
論文 参考訳(メタデータ) (2022-11-04T01:07:54Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Adaptive Personlization in Federated Learning for Highly Non-i.i.d. Data [37.667379000751325]
フェデレートラーニング(Federated Learning, FL)は、医療機関にグローバルモデルにおけるコラボレーションの見通しを提供する分散ラーニング手法である。
本研究では,FLの中間的半言語モデルを生成する適応階層クラスタリング手法について検討する。
本実験は, 分類精度の標準的なFL法と比較して, 不均質分布において有意な性能向上を示した。
論文 参考訳(メタデータ) (2022-07-07T17:25:04Z) - ST-FL: Style Transfer Preprocessing in Federated Learning for COVID-19
Segmentation [1.6799377888527687]
新型コロナウイルスのイメージセグメンテーションのための,ST-FL(Style Transfer Federated Learning)と呼ばれるGAN拡張型フェデレーション学習モデルを提案する。
FLクライアントノード上での広範囲なデータ品質の変化は、COVID-19胸部CT画像のセグメンテーションにおいて、サブ最適化されたFLモデルに繋がることを示す。
論文 参考訳(メタデータ) (2022-03-25T14:33:02Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。