論文の概要: Wave-GMS: Lightweight Multi-Scale Generative Model for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2510.03216v1
- Date: Fri, 03 Oct 2025 17:53:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.525321
- Title: Wave-GMS: Lightweight Multi-Scale Generative Model for Medical Image Segmentation
- Title(参考訳): Wave-GMS:医療画像分割のための軽量マルチスケール生成モデル
- Authors: Talha Ahmed, Nehal Ahmed Shaikh, Hassan Mohy-ud-Din,
- Abstract要約: Wave-GMSは、医用画像セグメンテーションのための軽量で効率的なマルチスケール生成モデルである。
Wave-GMSは2.6Mのトレーニング可能なパラメータしか必要とせず、クロスドメインの一般化性に優れた最先端セグメンテーション性能を実現する。
- 参考スコア(独自算出の注目度): 0.31127176608400353
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: For equitable deployment of AI tools in hospitals and healthcare facilities, we need Deep Segmentation Networks that offer high performance and can be trained on cost-effective GPUs with limited memory and large batch sizes. In this work, we propose Wave-GMS, a lightweight and efficient multi-scale generative model for medical image segmentation. Wave-GMS has a substantially smaller number of trainable parameters, does not require loading memory-intensive pretrained vision foundation models, and supports training with large batch sizes on GPUs with limited memory. We conducted extensive experiments on four publicly available datasets (BUS, BUSI, Kvasir-Instrument, and HAM10000), demonstrating that Wave-GMS achieves state-of-the-art segmentation performance with superior cross-domain generalizability, while requiring only ~2.6M trainable parameters. Code is available at https://github.com/ATPLab-LUMS/Wave-GMS.
- Abstract(参考訳): 病院や医療施設にAIツールを均等に配置するためには、高性能で、メモリが限られ、バッチサイズが大きいコスト効率の高いGPUでトレーニングできるディープセグメンテーションネットワークが必要です。
本研究では,医療画像セグメンテーションのための軽量かつ効率的なマルチスケール生成モデルであるWave-GMSを提案する。
Wave-GMSは、トレーニング可能なパラメータのかなり少ないため、メモリ集約型の事前トレーニングされたビジョン基盤モデルのロードは不要で、メモリ制限のあるGPU上での大きなバッチサイズでのトレーニングをサポートする。
我々は4つの公開データセット(BUS, BUSI, Kvasir-Instrument, HAM10000)について広範な実験を行い、Wave-GMSが2.6Mのトレーニング可能なパラメータしか必要とせず、最先端のセグメンテーション性能を達成できることを実証した。
コードはhttps://github.com/ATPLab-LUMS/Wave-GMSで入手できる。
関連論文リスト
- HER-Seg: Holistically Efficient Segmentation for High-Resolution Medical Images [12.452415054883256]
高分解能セグメンテーションは、微細な形態的詳細を抽出することにより、正確な疾患診断に重要である。
既存の階層型エンコーダ・デコーダフレームワークは、様々な医学的セグメンテーションタスクにおいて顕著な適応性を示している。
我々はHER-Segと呼ばれる高解像度医用画像分割のための全体的効率のよいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-08T16:48:57Z) - MCP-MedSAM: A Powerful Lightweight Medical Segment Anything Model Trained with a Single GPU in Just One Day [0.6827423171182151]
医用画像のセグメンテーションは、解剖学的構造や病変の特定に焦点をあてて、医療画像を意味のある領域に分割する。
Anything Model(SAM)は、様々なタスクのパフォーマンスを改善するために、医学領域に適応するよう研究者に促している。
MCP-MedSAMは、40GBのメモリを持つ単一のA100 GPU上で1日以内にトレーニングできるように設計された、強力で軽量な医療SAMモデルである。
論文 参考訳(メタデータ) (2024-12-08T10:50:59Z) - Generative Medical Segmentation [5.4613210257624605]
生成医療 (Generative Medical, GMS) は、生成モデルを利用して画像セグメンテーションを行う新しいアプローチである。
GMSは、画像とそれに対応する接地真実マスクの潜在表現を抽出するために、頑健な事前訓練された視覚基盤モデルを採用している。
GMSの設計により、モデルのトレーニング可能なパラメータが少なくなり、オーバーフィットのリスクが軽減され、その能力が向上する。
論文 参考訳(メタデータ) (2024-03-27T02:16:04Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - Pruning Self-attentions into Convolutional Layers in Single Path [89.55361659622305]
ビジョントランスフォーマー(ViT)は、様々なコンピュータビジョンタスクに対して印象的なパフォーマンスを実現している。
トレーニング済みのViTを効率よく自動圧縮するSPViT(Single-Path Vision Transformer pruning)を提案する。
われわれのSPViTはDeiT-Bで52.0%のFLOPをトリミングできる。
論文 参考訳(メタデータ) (2021-11-23T11:35:54Z) - MG-GCN: Scalable Multi-GPU GCN Training Framework [1.7188280334580197]
グラフ畳み込みネットワーク(GCN)モデルの完全なバッチトレーニングは、大きなグラフのための単一のGPUでは実現できない。
MG-GCNは、メモリバッファの効率的な再使用を含む、複数のハイパフォーマンスコンピューティング最適化を採用している。
MG-GCNは、DGX-1(V100)とDGX-A100の両方のRedditグラフ上で、DGLに関する超線形スピードアップを達成する。
論文 参考訳(メタデータ) (2021-10-17T00:41:43Z) - M6-10T: A Sharing-Delinking Paradigm for Efficient Multi-Trillion
Parameter Pretraining [55.16088793437898]
極端なモデルのトレーニングには大量の計算とメモリフットプリントが必要です。
本稿では,高メモリフットプリント要求大モデルのための簡単なトレーニング戦略"Pseudo-to-Real"を提案する。
論文 参考訳(メタデータ) (2021-10-08T04:24:51Z) - GSTO: Gated Scale-Transfer Operation for Multi-Scale Feature Learning in
Pixel Labeling [92.90448357454274]
本稿では,空間教師付き機能を他のスケールに適切に移行するためのGated Scale-Transfer Operation (GSTO)を提案する。
GSTOをHRNetにプラグインすることで、ピクセルラベリングの強力なバックボーンが得られます。
実験の結果,GSTOはマルチスケール機能アグリゲーションモジュールの性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-05-27T13:46:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。