論文の概要: Intelligent Communication Mixture-of-Experts Boosted-Medical Image Segmentation Foundation Model
- arxiv url: http://arxiv.org/abs/2510.17684v1
- Date: Mon, 20 Oct 2025 16:00:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.510199
- Title: Intelligent Communication Mixture-of-Experts Boosted-Medical Image Segmentation Foundation Model
- Title(参考訳): インテリジェント・コミュニケーション・ミックス・オブ・エクスプローラー : 医用画像分割基礎モデル
- Authors: Xinwei Zhang, Hu Chen, Zhe Yuan, Sukun Tian, Peng Feng,
- Abstract要約: IC-MoE という名前のインテリジェントな通信混合型医用画像分割基盤モデルを提案する。
基本的専門家、意味的専門家、適応的専門家を構築します。
我々は,ラベルの整合性とロードバランシングによる専門家の選択と融合を可能にする,画素確率適応型投票戦略を実装した。
- 参考スコア(独自算出の注目度): 8.841533916991091
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foundation models for medical image segmentation have achieved remarkable performance. Adaptive fine-tuning of natural image segmentation foundation models is crucial for medical image segmentation tasks. However, some limitations exist in existing fine-tuning methods: 1) insufficient representation of high-level features and 2) the fine-tuning process disrupts the structural integrity of pretrained weights. Inspired by these critical problems, we propose an intelligent communication mixture-of-experts boosted-medical image segmentation foundation model, named IC-MoE, with twofold ideas: 1) We construct basic experts, semantic experts, and adaptive experts. Moreover, we implement a pixel probability adaptive voting strategy, which enables expert selection and fusion through label consistency and load balancing. This approach preliminarily enhances the representation capability of high-level features while preserving the structural integrity of pretrained weights. 2) We propose a semantic-guided contrastive learning method to address the issue of weak supervision in contrastive learning. This method further enhances the representation capability of high-level features while preserving the structural integrity of pretrained weights. Extensive experiments across three public medical image segmentation datasets demonstrate that the IC-MoE outperforms other SOTA models. Consequently, the proposed IC-MoE effectively supplements foundational medical image segmentation models with high-level features and pretrained structural integrity. We also validate the superior generalizability of the IC-MoE across diverse medical image segmentation scenarios.
- Abstract(参考訳): 医用画像セグメンテーションの基礎モデルは、優れたパフォーマンスを達成している。
自然画像セグメンテーション基礎モデルの適応微調整は,医療画像セグメンテーションタスクに不可欠である。
しかし、既存の微調整法にはいくつかの制限がある。
1)ハイレベルな特徴の表現が不十分で、
2) 微調整プロセスは, 既訓練重量の構造的整合性を阻害する。
これらの重要な問題に触発されて、IC-MoE という2つのアイデアを持つインテリジェントなコミュニケーション・ミックス・オブ・エキスパート・アップド・メディカルイメージセグメンテーション・モデルを提案する。
1)基本的専門家、意味的専門家、適応的専門家を構築する。
さらに,ラベルの整合性とロードバランシングによる専門家の選択と融合を可能にする,画素確率適応型投票戦略を実装した。
このアプローチは、事前訓練された重みの構造的整合性を保ちながら、高次特徴の表現能力を予め拡張する。
2) コントラスト学習における弱監督の問題に対処する意味指導型コントラスト学習手法を提案する。
この方法は、事前訓練した重みの構造的整合性を保ちながら、高次特徴の表現能力をさらに向上させる。
3つの公開医療画像セグメンテーションデータセットにわたる大規模な実験は、IC-MoEが他のSOTAモデルより優れていることを示した。
提案したIC-MoEは,高次特徴と事前訓練された構造整合性を備えた基礎的医用画像分割モデルを効果的に補完する。
また,IC-MoEの医用画像セグメンテーションにおける優れた一般化性についても検証した。
関連論文リスト
- MM-DINOv2: Adapting Foundation Models for Multi-Modal Medical Image Analysis [19.063517827476826]
MM-DINOv2(MM-DINOv2)は,マルチモーダル・メディカル・イメージングのための事前学習型視覚基盤モデルDINOv2に適応する新しいフレームワークである。
本手法では,マルチモーダル・パッチの埋め込みを取り入れ,視覚基盤モデルによりマルチモーダル・イメージングデータを効果的に処理することができる。
本手法は外部テストセットで0.6のマシューズ相関係数(MCC)を達成し、最先端の教師付きアプローチを+11.1%超える。
論文 参考訳(メタデータ) (2025-09-08T12:34:15Z) - MedSeqFT: Sequential Fine-tuning Foundation Models for 3D Medical Image Segmentation [55.37355146924576]
MedSeqFTは、医用画像解析のためのシーケンシャルな微調整フレームワークである。
事前訓練されたモデルを新しいタスクに適応させ、表現能力を改善する。
最先端の微調整戦略を一貫して上回ります。
論文 参考訳(メタデータ) (2025-09-07T15:22:53Z) - IMPACT: A Generic Semantic Loss for Multimodal Medical Image Registration [0.46904601975060667]
IMPACT (Image Metric with Pretrained Model-Agnostic Comparison for Transmodality registration) は、マルチモーダル画像登録のための新しい類似度尺度である。
大規模事前訓練セグメンテーションモデルから抽出した深い特徴の比較に基づいて意味的類似度尺度を定義する。
胸椎CT/CBCTおよび骨盤MR/CTデータセットを含む5つの難易度3次元登録課題について検討した。
論文 参考訳(メタデータ) (2025-03-31T14:08:21Z) - PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - Dual-Domain CLIP-Assisted Residual Optimization Perception Model for Metal Artifact Reduction [9.028901322902913]
CT(Computed tomography)画像における金属遺物は,正確な臨床診断に重要な課題である。
深層学習に基づくアプローチ、特に生成モデルは、金属人工物還元(MAR)のために提案されている。
論文 参考訳(メタデータ) (2024-08-14T02:37:26Z) - Bridging Synthetic and Real Images: a Transferable and Multiple
Consistency aided Fundus Image Enhancement Framework [61.74188977009786]
画像強調とドメイン適応を同時に行うために,エンドツーエンドの教師支援フレームワークを提案する。
また,教師ネットワークと学生ネットワークのバックボーンとして,マルチステージ型マルチアテンション・ガイド・エンハンスメント・ネットワーク(MAGE-Net)を提案する。
論文 参考訳(メタデータ) (2023-02-23T06:16:15Z) - Toward Unpaired Multi-modal Medical Image Segmentation via Learning
Structured Semantic Consistency [24.78258331561847]
本稿では,異なるモダリティの相互利益を学習し,不自由な医療画像に対してより良いセグメンテーション結果を得るための新しい手法を提案する。
我々は、慎重に設計された外部注意モジュール(EAM)を利用して、セマンティッククラス表現とそれらの異なるモダリティの相関を調整します。
提案手法の有効性を2つの医療画像セグメンテーションシナリオで実証した。
論文 参考訳(メタデータ) (2022-06-21T17:50:29Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。