論文の概要: SA-Med2D-20M Dataset: Segment Anything in 2D Medical Imaging with 20
Million masks
- arxiv url: http://arxiv.org/abs/2311.11969v1
- Date: Mon, 20 Nov 2023 17:59:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 17:38:56.289828
- Title: SA-Med2D-20M Dataset: Segment Anything in 2D Medical Imaging with 20
Million masks
- Title(参考訳): SA-Med2D-20Mデータセット:2000万マスクの2D医療画像のセグメンテーション
- Authors: Jin Ye, Junlong Cheng, Jianpin Chen, Zhongying Deng, Tianbin Li, Haoyu
Wang, Yanzhou Su, Ziyan Huang, Jilong Chen, Lei Jiang, Hui Sun, Min Zhu,
Shaoting Zhang, Junjun He, Yu Qiao
- Abstract要約: SA-Med2D-20Mは、多数のパブリックおよびプライベートデータセット上に構築された2次元医療画像の大規模セグメンテーションデータセットである。
本稿では、SA-Med2D-20Mで収集されたすべてのデータセットについて述べ、これらのデータセットの処理方法について詳述する。
- 参考スコア(独自算出の注目度): 35.53894627942628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segment Anything Model (SAM) has achieved impressive results for natural
image segmentation with input prompts such as points and bounding boxes. Its
success largely owes to massive labeled training data. However, directly
applying SAM to medical image segmentation cannot perform well because SAM
lacks medical knowledge -- it does not use medical images for training. To
incorporate medical knowledge into SAM, we introduce SA-Med2D-20M, a
large-scale segmentation dataset of 2D medical images built upon numerous
public and private datasets. It consists of 4.6 million 2D medical images and
19.7 million corresponding masks, covering almost the whole body and showing
significant diversity. This paper describes all the datasets collected in
SA-Med2D-20M and details how to process these datasets. Furthermore,
comprehensive statistics of SA-Med2D-20M are presented to facilitate the better
use of our dataset, which can help the researchers build medical vision
foundation models or apply their models to downstream medical applications. We
hope that the large scale and diversity of SA-Med2D-20M can be leveraged to
develop medical artificial intelligence for enhancing diagnosis, medical image
analysis, knowledge sharing, and education. The data with the redistribution
license is publicly available at https://github.com/OpenGVLab/SAM-Med2D.
- Abstract(参考訳): Segment Anything Model (SAM) は、点やバウンディングボックスなどの入力プロンプトを持つ自然な画像のセグメンテーションにおいて、印象的な結果を得た。
その成功は主に大量のラベル付きトレーニングデータによる。
しかし、SAMは医学的な知識を欠いているため、医療画像のセグメンテーションにSAMを直接適用することはうまくいかない。
SAMに医療知識を組み込むために,多数の公開およびプライベートデータセット上に構築された2次元医用画像の大規模セグメンテーションデータセットであるSA-Med2D-20Mを導入する。
460万枚の医療画像と197万枚のマスクで構成され、ほぼ全体を覆い、かなりの多様性を示している。
本稿では,SA-Med2D-20Mで収集したすべてのデータセットについて述べる。
さらに、SA-Med2D-20Mの総合統計データを提示し、我々のデータセットをよりよく活用できるようにし、研究者が医療ビジョン基盤モデルを構築したり、下流の医療アプリケーションに適用したりするのに役立ちます。
我々は,SA-Med2D-20Mの大規模かつ多様性を活用して,診断,医用画像解析,知識共有,教育を強化する医療人工知能の開発を期待する。
再配布ライセンス付きデータはhttps://github.com/OpenGVLab/SAM-Med2Dで公開されている。
関連論文リスト
- SAM-Med3D [36.6362248184995]
SAM-Med3D(SAM-Med3D)について紹介する。
我々はSAM-Med3Dを131K以上の3Dマスクと247のカテゴリで訓練する。
SAMと比較すると,3次元医用画像の高効率化と広いセグメンテーション能力を示す。
論文 参考訳(メタデータ) (2023-10-23T17:57:36Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - SAM-Med2D [34.82072231983896]
我々はSAM-Med2Dを医療用2次元画像に適用する最も包括的な研究である。
まず、公開およびプライベートデータセットから約4.6Mの画像と19.7Mマスクを収集し、キュレートします。
元のSAMのエンコーダとデコーダを微調整して、良好な性能のSAM-Med2Dを得る。
論文 参考訳(メタデータ) (2023-08-30T17:59:02Z) - 3DSAM-adapter: Holistic Adaptation of SAM from 2D to 3D for Promptable
Medical Image Segmentation [56.50064853710202]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - Computer-Vision Benchmark Segment-Anything Model (SAM) in Medical
Images: Accuracy in 12 Datasets [1.6624933615451842]
SAM( segment-anything model)は、ベンチマークモデルとして、様々な自然画像をセグメント化するための普遍的なソリューションとして、将来性を示す。
SAMは、7,451人の被験者を含む12の公開医療画像セグメンテーションデータセットでテストされた。
SAMとDiceの重なり合いは、12の医用画像セグメンテーションデータセットの5つの医用画像ベースアルゴリズムよりも有意に低かった。
論文 参考訳(メタデータ) (2023-04-18T22:16:49Z) - SAMM (Segment Any Medical Model): A 3D Slicer Integration to SAM [6.172995387355581]
3次元スライダにおけるSAMの拡張であるSegment Any Medical Model (SAMM)を紹介する。
SAMMは完全なサイクルの0.6秒のレイテンシを実現し、ほぼリアルタイムで画像マスクを推測できる。
論文 参考訳(メタデータ) (2023-04-12T05:39:38Z) - Understanding the Tricks of Deep Learning in Medical Image Segmentation:
Challenges and Future Directions [66.40971096248946]
本稿では,モデル実装の異なるフェーズに対して,MedISegの一連のトリックを収集する。
本稿では,これらの手法の有効性を一貫したベースライン上で実験的に検討する。
私たちはまた、それぞれのコンポーネントがプラグインとプレイの利点を持つ強力なMedISegリポジトリをオープンソースにしました。
論文 参考訳(メタデータ) (2022-09-21T12:30:05Z) - MedMNIST v2: A Large-Scale Lightweight Benchmark for 2D and 3D
Biomedical Image Classification [59.10015984688104]
MedMNIST v2は、MNISTに似た大規模データセットコレクションである。
得られたデータセットは708,069個の2D画像と10,214個の3D画像で構成されている。
論文 参考訳(メタデータ) (2021-10-27T22:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。