論文の概要: Segment Anything in Medical Images
- arxiv url: http://arxiv.org/abs/2304.12306v1
- Date: Mon, 24 Apr 2023 17:56:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 13:47:51.810482
- Title: Segment Anything in Medical Images
- Title(参考訳): 医用画像におけるセグメンテーション
- Authors: Jun Ma and Bo Wang
- Abstract要約: Segment Any Model (SAM) は自然画像のセグメンテーションに革命をもたらしたが、医療画像のパフォーマンスは限られている。
この研究は、SAMの成功を医療画像に拡張する最初の試みであるMedSAMを提示する。
- 参考スコア(独自算出の注目度): 13.944673589369447
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Segment anything model (SAM) has revolutionized natural image segmentation,
but its performance on medical images is limited. This work presents MedSAM,
the first attempt at extending the success of SAM to medical images, with the
goal of creating a universal tool for the segmentation of various medical
targets. Specifically, we first curate a large-scale medical image dataset,
encompassing over 200,000 masks across 11 different modalities. Then, we
develop a simple fine-tuning method to adapt SAM to general medical image
segmentation. Comprehensive experiments on 21 3D segmentation tasks and 9 2D
segmentation tasks demonstrate that MedSAM outperforms the default SAM model
with an average Dice Similarity Coefficient (DSC) of 22.5% and 17.6% on 3D and
2D segmentation tasks, respectively. The code and trained model are publicly
available at \url{https://github.com/bowang-lab/MedSAM}.
- Abstract(参考訳): Segment Any Model (SAM) は自然画像のセグメンテーションに革命をもたらしたが、医療画像のパフォーマンスは限られている。
この研究は、SAMの成功を医療画像に拡張する最初の試みであるMedSAMを紹介し、様々な医学的目標のセグメンテーションのための普遍的なツールを作成することを目的としている。
具体的には、11つの異なるモードにわたる20万以上のマスクを含む、大規模な医療画像データセットを最初にキュレートする。
次に,samを一般医用画像セグメンテーションに適用するための簡易な微調整法を開発した。
21の3Dセグメンテーションタスクと9の2Dセグメンテーションタスクに関する総合的な実験により、MedSAMは3Dセグメンテーションタスクでそれぞれ22.5%と17.6%の平均的なDice similarity Coefficient(DSC)でデフォルトSAMモデルより優れていることが示された。
コードとトレーニングされたモデルは、 \url{https://github.com/bowang-lab/MedSAM}で公開されている。
関連論文リスト
- Panoptic Segmentation of Mammograms with Text-To-Image Diffusion Model [1.2130800774416757]
視覚言語拡散モデルは、様々な下流タスクに対する画像生成と転送性において顕著な性能を示した。
本稿では,安定拡散モデルから最新のパン光学セグメントアーキテクチャへの入力として,事前学習した特徴を活用することを提案する。
論文 参考訳(メタデータ) (2024-07-19T14:04:05Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - QUBIQ: Uncertainty Quantification for Biomedical Image Segmentation Challenge [93.61262892578067]
医用画像分割作業の不確実性、特にラター間変動性は重要な課題である。
この可変性は、自動セグメンテーションアルゴリズムの開発と評価に直接影響を及ぼす。
バイオメディカル画像量化チャレンジ(QUBIQ)における不確実性の定量化のベンチマーク結果を報告する。
論文 参考訳(メタデータ) (2024-03-19T17:57:24Z) - From CNN to Transformer: A Review of Medical Image Segmentation Models [7.3150850275578145]
医用画像セグメンテーションのための深層学習が主流となっている。
本稿では,近年最も代表的な4つの医用画像セグメンテーションモデルについて調査する。
理論的にこれらのモデルの特徴を解析し、2つのベンチマークデータセット上でそれらの性能を定量的に評価する。
論文 参考訳(メタデータ) (2023-08-10T02:48:57Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Training Like a Medical Resident: Context-Prior Learning Toward Universal Medical Image Segmentation [38.61227663176952]
医用画像理解基盤モデルの構築を目的としたパラダイムであるユニバーサル・メディカルイメージ・セグメンテーションへのシフトを提案する。
医用画像セグメンテーションにおけるデータの異質性やアノテーションの違いに対処する新しい文脈優先学習手法であるHermesを開発した。
論文 参考訳(メタデータ) (2023-06-04T17:39:08Z) - A Transformer-based representation-learning model with unified
processing of multimodal input for clinical diagnostics [63.106382317917344]
本稿では,マルチモーダル入力を統一的に処理する臨床診断支援として,トランスフォーマーを用いた表現学習モデルについて報告する。
統一モデルは, 肺疾患の同定において, 画像のみのモデル, 非統一型マルチモーダル診断モデルより優れていた。
論文 参考訳(メタデータ) (2023-06-01T16:23:47Z) - Zero-shot performance of the Segment Anything Model (SAM) in 2D medical
imaging: A comprehensive evaluation and practical guidelines [0.13854111346209866]
Segment Anything Model (SAM)は、大規模なトレーニングデータセットを使用して、ほぼすべてのオブジェクトをセグメント化する。
この結果から,SAMのゼロショット性能は,現在の最先端技術に匹敵するものであることが判明した。
我々は、一貫して堅牢な結果をもたらしながら、最小限の相互作用を必要とする実践的ガイドラインを提案する。
論文 参考訳(メタデータ) (2023-04-28T22:07:24Z) - Generalist Vision Foundation Models for Medical Imaging: A Case Study of
Segment Anything Model on Zero-Shot Medical Segmentation [5.547422331445511]
9つの医用画像セグメンテーションベンチマークにおいて,定量および定性的ゼロショットセグメンテーションの結果を報告する。
本研究は,医用画像における一般視基盤モデルの汎用性を示すものである。
論文 参考訳(メタデータ) (2023-04-25T08:07:59Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Weakly supervised multiple instance learning histopathological tumor
segmentation [51.085268272912415]
スライド画像全体のセグメント化のための弱教師付きフレームワークを提案する。
トレーニングモデルに複数のインスタンス学習スキームを利用する。
提案するフレームワークは,The Cancer Genome AtlasとPatchCamelyonデータセットのマルチロケーションとマルチ中心公開データに基づいて評価されている。
論文 参考訳(メタデータ) (2020-04-10T13:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。