論文の概要: DSFedMed: Dual-Scale Federated Medical Image Segmentation via Mutual Distillation Between Foundation and Lightweight Models
- arxiv url: http://arxiv.org/abs/2601.16073v1
- Date: Thu, 22 Jan 2026 16:18:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.646396
- Title: DSFedMed: Dual-Scale Federated Medical Image Segmentation via Mutual Distillation Between Foundation and Lightweight Models
- Title(参考訳): DSFedMed: 基礎モデルと軽量モデル間の相互蒸留によるデュアルスケール医療画像セグメンテーション
- Authors: Hanwen Zhang, Qiaojin Shen, Yuxi Liu, Yuesheng Zhu, Guibo Luo,
- Abstract要約: DSFedMedは、中央集権基盤モデルと医療画像セグメンテーションのための軽量クライアントモデルとの間の相互知識の蒸留を可能にする、二重スケールのフェデレーションフレームワークである。
DSFedMedは,既存のフェデレーションモデルに比べて,通信コストと推定時間を90%近く削減しつつ,Diceスコアの平均2%改善を実現している。
- 参考スコア(独自算出の注目度): 23.42457915907235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foundation Models (FMs) have demonstrated strong generalization across diverse vision tasks. However, their deployment in federated settings is hindered by high computational demands, substantial communication overhead, and significant inference costs. We propose DSFedMed, a dual-scale federated framework that enables mutual knowledge distillation between a centralized foundation model and lightweight client models for medical image segmentation. To support knowledge distillation, a set of high-quality medical images is generated to replace real public datasets, and a learnability-guided sample selection strategy is proposed to enhance efficiency and effectiveness in dual-scale distillation. This mutual distillation enables the foundation model to transfer general knowledge to lightweight clients, while also incorporating client-specific insights to refine the foundation model. Evaluations on five medical imaging segmentation datasets show that DSFedMed achieves an average 2 percent improvement in Dice score while reducing communication costs and inference time by nearly 90 percent compared to existing federated foundation model baselines. These results demonstrate significant efficiency gains and scalability for resource-limited federated deployments.
- Abstract(参考訳): ファンデーションモデル (FM) は様々な視覚タスクにまたがる強力な一般化を実証している。
しかし、それらのフェデレートされた設定への展開は、高い計算要求、かなりの通信オーバーヘッド、かなりの推論コストによって妨げられている。
DSFedMedは,集中基盤モデルと医用画像分割のための軽量クライアントモデルとの相互知識の蒸留を可能にする,二重スケールのフェデレーションフレームワークである。
知識蒸留を支援するために、実際の公開データセットを置き換えるために高品質な医用画像のセットを生成し、デュアルスケール蒸留における効率性と有効性を高めるための学習可能性誘導型サンプル選択戦略を提案する。
この相互蒸留により、ファンデーションモデルは、ファンデーションモデルを洗練するためにクライアント固有の洞察を取り入れつつ、一般知識を軽量クライアントに転送することができる。
5つの医用画像セグメンテーションデータセットの評価から、DSFedMedはDiceのスコアを平均2%改善し、既存のフェデレーションベースラインと比較して通信コストと推論時間を90%近く短縮した。
これらの結果は、リソース限定のフェデレーションデプロイメントにおいて、大幅な効率向上とスケーラビリティを示す。
関連論文リスト
- LatentFM: A Latent Flow Matching Approach for Generative Medical Image Segmentation [0.0]
医用画像セグメンテーションのためのフローベースモデルであるLatentFMを提案する。
複数の潜在表現をサンプリングすることにより,多様なセグメンテーション出力を合成する。
提案手法は,潜在空間において高い効率を保ちながら,より優れたセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2025-12-04T14:06:08Z) - Federated CLIP for Resource-Efficient Heterogeneous Medical Image Classification [6.844618776091757]
医用画像分類(FedMedCLIP)のための対照的言語画像事前訓練(CLIP)に基づくFLアプローチを提案する。
具体的には、通信モジュールとしてマスク付き特徴適応モジュール(FAM)を導入し、通信負荷を低減し、CLIPエンコーダを凍結して計算オーバーヘッドを低減する。
最後に、分類にアンサンブル予測を用いてFAMパラメータを伝達するためにモデル圧縮を組み込む。
論文 参考訳(メタデータ) (2025-11-11T07:26:21Z) - MedAlign: A Synergistic Framework of Multimodal Preference Optimization and Federated Meta-Cognitive Reasoning [52.064286116035134]
我々はMed-VQA(Med-VQA)のための視覚的LVLM応答を保証するフレームワークであるMedAlignを開発した。
まず、優先学習を視覚的コンテキストに合わせるために、マルチモーダルな直接選好最適化(mDPO)の目的を提案する。
次に、画像とテキストの類似性を生かし、クエリを専門的でコンテキスト拡張されたLVLMにルーティングする検索型混合処理(RA-MoE)アーキテクチャを設計する。
論文 参考訳(メタデータ) (2025-10-24T02:11:05Z) - Agglomerating Large Vision Encoders via Distillation for VFSS Segmentation [3.8945524993645106]
医用画像分割作業における低複雑性モデルの性能向上のための新しい枠組みを提案する。
集約されたモデルは12のセグメンテーションタスクにまたがる優れた一般化を示すが、特殊なモデルは各タスクに対して明示的な訓練を必要とする。
論文 参考訳(メタデータ) (2025-04-03T07:38:09Z) - FACMIC: Federated Adaptative CLIP Model for Medical Image Classification [12.166024140377337]
本稿では,CLIPモデルを用いた適応型コントラスト言語画像の分類処理について紹介する。
私たちはCLIP用の軽量で効率的な機能アテンションモジュールを採用し、各クライアントのデータに適した機能を選択します。
本稿では,クライアント間のデータ分散の差異を低減するためのドメイン適応手法を提案する。
論文 参考訳(メタデータ) (2024-10-08T13:24:10Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - MedSegDiff-V2: Diffusion based Medical Image Segmentation with
Transformer [53.575573940055335]
我々は、MedSegDiff-V2と呼ばれるトランスフォーマーベースの拡散フレームワークを提案する。
画像の異なる20種類の画像分割作業において,その有効性を検証する。
論文 参考訳(メタデータ) (2023-01-19T03:42:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。