論文の概要: A Segmentation Foundation Model for Diverse-type Tumors
- arxiv url: http://arxiv.org/abs/2403.06396v1
- Date: Mon, 11 Mar 2024 03:05:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 20:33:03.647648
- Title: A Segmentation Foundation Model for Diverse-type Tumors
- Title(参考訳): 多様な腫瘍に対するセグメンテーション基盤モデル
- Authors: Jianhao Xie, Ziang Zhang, Guibo Luo, and Yuesheng Zhu
- Abstract要約: 多くの医用画像データセットは十分な量のデータを持っていないため、医用画像の大規模なモデルはほとんどない。
本稿では,Resblock-backbone と Transformer-bottleneck を用いた大規模腫瘍基盤モデル (TSFM) を提案する。
TSFMは腫瘍のセグメンテーションにおいて良好な性能を示すため,医用画像における腫瘍と臓器の空間的相関を十分に活用する。
- 参考スコア(独自算出の注目度): 13.651458747404659
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large pre-trained models with their numerous model parameters and extensive
training datasets have shown excellent performance in various tasks. Many
publicly available medical image datasets do not have a sufficient amount of
data so there are few large-scale models in medical imaging. We propose a
large-scale Tumor Segmentation Foundation Model (TSFM) with 1.6 billion
parameters using Resblock-backbone and Transformer-bottleneck,which has good
transfer ability for downstream tasks. To make TSFM exhibit good performance in
tumor segmentation, we make full use of the strong spatial correlation between
tumors and organs in the medical image, innovatively fuse 7 tumor datasets and
3 multi-organ datasets to build a 3D medical dataset pool, including 2779 cases
with totally 300k medical images, whose size currently exceeds many other
single publicly available datasets. TSFM is the pre-trained model for medical
image segmentation, which also can be transferred to multiple downstream tasks
for fine-tuning learning. The average performance of our pre-trained model is
2% higher than that of nnU-Net across various tumor types. In the transfer
learning task, TSFM only needs 5% training epochs of nnU-Net to achieve similar
performance and can surpass nnU-Net by 2% on average with 10% training epoch.
Pre-trained TSFM and its code will be released soon.
- Abstract(参考訳): 多数のモデルパラメータと広範なトレーニングデータセットを持つ大規模事前学習モデルは、様々なタスクにおいて優れたパフォーマンスを示している。
多くの医用画像データセットは十分な量のデータを持っていないため、医用画像の大規模なモデルはほとんどない。
本稿では,resblock-backboneとtransformer-bottleneckを用いて,160億パラメータのtsfm(large-scale tumor segmentation foundation model)を提案する。
TSFMは, 医用画像における腫瘍と臓器間の強い空間的相関, 革新的に7つの腫瘍データセットと3つの多臓器データセットを融合させて, 3次元医用データセットプールを構築する。
TSFMは、医学画像セグメンテーションのための事前訓練されたモデルであり、微調整学習のために複数の下流タスクに転送することもできる。
プレトレーニングモデルの平均成績は,nnu-netより各種腫瘍タイプで2%高い値を示した。
トランスファーラーニングタスクでは、同様のパフォーマンスを達成するために、nU-Netのトレーニングエポックを5%しか必要とせず、トレーニングエポックを10%で平均で2%超えることができる。
事前訓練されたTSFMとそのコードはまもなくリリースされる。
関連論文リスト
- SegBook: A Simple Baseline and Cookbook for Volumetric Medical Image Segmentation [20.026663367994356]
大量のフルボディCT画像は、強力なモデルを事前訓練する機会を提供する。
これらの事前訓練されたモデルが、下流の様々な医療セグメンテーションタスクに移行できる状況は、まだ不明である。
我々は,全体CT事前訓練モデルの転写能力を評価するために,モダリティ,ターゲット,サンプルサイズが異なる87の公開データセットを収集した。
論文 参考訳(メタデータ) (2024-11-21T19:00:01Z) - PMFSNet: Polarized Multi-scale Feature Self-attention Network For
Lightweight Medical Image Segmentation [6.134314911212846]
現在の最先端の医用画像分割法は精度を優先するが、計算要求の増大とより大きなモデルサイズを犠牲にすることも多い。
計算冗長性を避けつつグローバルな局所特徴処理のバランスをとる新しい医用画像分割モデルPMFSNetを提案する。
長期依存関係をキャプチャするために,アテンション機構に基づいたマルチスケール機能拡張モジュールであるPMFSブロックをプラグインとして組み込んでいる。
論文 参考訳(メタデータ) (2024-01-15T10:26:47Z) - Overcoming Data Scarcity in Biomedical Imaging with a Foundational
Multi-Task Model [2.5994154212235685]
大規模に事前訓練された基礎モデルは、医療以外の領域でかなりの成功を収めている。
本稿では,メモリ要件からトレーニングタスク数を分離するマルチタスク学習戦略を提案する。
論文 参考訳(メタデータ) (2023-11-16T12:20:25Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Pick the Best Pre-trained Model: Towards Transferability Estimation for
Medical Image Segmentation [20.03177073703528]
転送学習は、難しい医用画像分割タスクのために、ディープニューラルネットワークをトレーニングする上で重要なテクニックである。
医用画像セグメンテーションのための新しい転送可能性推定法を提案する。
医用画像のセグメンテーションにおける転送可能性推定のアルゴリズムを網羅した手法を提案する。
論文 参考訳(メタデータ) (2023-07-22T01:58:18Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Customizing General-Purpose Foundation Models for Medical Report
Generation [64.31265734687182]
ラベル付き医用画像-レポートペアの不足は、ディープニューラルネットワークや大規模ニューラルネットワークの開発において大きな課題となっている。
本稿では,コンピュータビジョンと自然言語処理の基盤モデル (FM) として,市販の汎用大規模事前学習モデルのカスタマイズを提案する。
論文 参考訳(メタデータ) (2023-06-09T03:02:36Z) - Learning from partially labeled data for multi-organ and tumor
segmentation [102.55303521877933]
本稿では,トランスフォーマーに基づく動的オンデマンドネットワーク(TransDoDNet)を提案する。
動的ヘッドにより、ネットワークは複数のセグメンテーションタスクを柔軟に達成することができる。
我々はMOTSと呼ばれる大規模にラベル付けされたMulti-Organ and tumorベンチマークを作成し、他の競合相手よりもTransDoDNetの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-13T13:03:09Z) - Federated Learning Enables Big Data for Rare Cancer Boundary Detection [98.5549882883963]
6大陸にわたる71の医療機関のデータを含む,これまでで最大のフェデレーテッドML研究の結果を報告する。
グリオ芽腫の稀な疾患に対する腫瘍境界自動検出装置を作製した。
当科では, 外科的に標的とした腫瘍の悪性度を高めるために, 33%の改善率を示し, 腫瘍全体に対する23%の改善率を示した。
論文 参考訳(メタデータ) (2022-04-22T17:27:00Z) - Medical Transformer: Universal Brain Encoder for 3D MRI Analysis [1.6287500717172143]
既存の3Dベースの手法は、トレーニング済みのモデルを下流のタスクに転送している。
彼らは3D医療イメージングのためのモデルを訓練するために大量のパラメータを要求します。
本稿では,2次元画像スライス形式で3次元容積画像を効果的にモデル化する,メディカルトランスフォーマーと呼ばれる新しい伝達学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-28T08:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。