論文の概要: UniverSeg: Universal Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2304.06131v1
- Date: Wed, 12 Apr 2023 19:36:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 16:17:01.772553
- Title: UniverSeg: Universal Medical Image Segmentation
- Title(参考訳): universeg:ユニバーサル・メディカル・イメージセグメンテーション
- Authors: Victor Ion Butoi, Jose Javier Gonzalez Ortiz, Tianyu Ma, Mert R.
Sabuncu, John Guttag, Adrian V. Dalca
- Abstract要約: そこで,UniverSegを提案する。UniverSegは,未確認の医療セグメンテーションタスクを,追加のトレーニングなしで解決する手法である。
53のオープンアクセス医療セグメンテーションデータセットを22,000以上のスキャンで収集し、標準化しました。
我々はUniverSegが、未確認タスクにおいて、いくつかの関連メソッドを大幅に上回っていることを実証した。
- 参考スコア(独自算出の注目度): 16.19510845046103
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While deep learning models have become the predominant method for medical
image segmentation, they are typically not capable of generalizing to unseen
segmentation tasks involving new anatomies, image modalities, or labels. Given
a new segmentation task, researchers generally have to train or fine-tune
models, which is time-consuming and poses a substantial barrier for clinical
researchers, who often lack the resources and expertise to train neural
networks. We present UniverSeg, a method for solving unseen medical
segmentation tasks without additional training. Given a query image and example
set of image-label pairs that define a new segmentation task, UniverSeg employs
a new Cross-Block mechanism to produce accurate segmentation maps without the
need for additional training. To achieve generalization to new tasks, we have
gathered and standardized a collection of 53 open-access medical segmentation
datasets with over 22,000 scans, which we refer to as MegaMedical. We used this
collection to train UniverSeg on a diverse set of anatomies and imaging
modalities. We demonstrate that UniverSeg substantially outperforms several
related methods on unseen tasks, and thoroughly analyze and draw insights about
important aspects of the proposed system. The UniverSeg source code and model
weights are freely available at https://universeg.csail.mit.edu
- Abstract(参考訳): 深層学習モデルは医用画像セグメンテーションの主要な方法となっているが、通常、新しい解剖学、画像のモダリティ、ラベルを含む見えないセグメンテーションタスクに一般化することができない。
新しいセグメンテーションタスクが与えられた場合、研究者は一般的に、時間を要するモデルや、ニューラルネットワークをトレーニングするリソースや専門知識が欠如している臨床研究者にとって大きな障壁となる、微調整されたモデルを訓練する必要がある。
そこで本研究では,未発見の医学的分別課題を,追加の訓練なしで解決する手法であるユニバースgを提案する。
新しいセグメンテーションタスクを定義するクエリイメージとイメージラベルペアのサンプルセットが与えられると、universegは新しいクロスブロック機構を使用して、追加のトレーニングなしで正確なセグメンテーションマップを生成する。
新しいタスクの一般化を実現するため、53のオープンアクセス医療セグメンテーションデータセットを22,000以上のスキャンで収集、標準化し、MegaMedicalと呼ぶ。
私たちはこのコレクションを使って、UniverSegをさまざまな解剖学と画像モダリティのセットで訓練しました。
我々は,UniverSegが未確認タスクに関するいくつかの関連手法を大幅に上回り,提案システムの重要な側面に関する洞察を徹底的に分析し,引き出すことを実証した。
UniverSegのソースコードとモデルウェイトはhttps://universeg.csail.mit.eduで無料で入手できる。
関連論文リスト
- MedCLIP-SAMv2: Towards Universal Text-Driven Medical Image Segmentation [2.2585213273821716]
MedCLIP-SAMv2はCLIPとSAMモデルを統合して臨床スキャンのセグメンテーションを行う新しいフレームワークである。
提案手法は,DHN-NCE(Decoupled Hard Negative Noise Contrastive Estimation)によるBiomedCLIPモデルの微調整を含む。
また,ゼロショットセグメンテーションラベルを弱教師付きパラダイム内で使用することにより,セグメンテーション品質をさらに向上する。
論文 参考訳(メタデータ) (2024-09-28T23:10:37Z) - Prompting Segment Anything Model with Domain-Adaptive Prototype for Generalizable Medical Image Segmentation [49.5901368256326]
医用画像のセグメンテーションにおけるセグメンテーションモデル(DAPSAM)の微調整のための新しいドメイン適応型プロンプトフレームワークを提案する。
DAPSAMは,2つの医療画像分割タスクにおいて,異なるモダリティで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-19T07:28:33Z) - MedCLIP-SAM: Bridging Text and Image Towards Universal Medical Image Segmentation [2.2585213273821716]
本稿では,CLIPモデルとSAMモデルを組み合わせて臨床スキャンのセグメンテーションを生成する新しいフレームワーク MedCLIP-SAM を提案する。
3つの多様なセグメンテーションタスクと医用画像モダリティを広範囲にテストすることにより、提案手法は優れた精度を示した。
論文 参考訳(メタデータ) (2024-03-29T15:59:11Z) - GMISeg: General Medical Image Segmentation without Re-Training [6.6467547151592505]
ディープラーニングモデルは、新しい解剖学的構造、ラベル、形状を含む未知のタスクに一般化し難いことが多い。
ここでは、未知の医用画像分割タスクを、追加の訓練を必要とせずに解決できる汎用モデルを開発した。
本手法は, 画像量や解剖学的構造が異なる医用画像データセットに対して, 提案手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-11-21T11:33:15Z) - SamDSK: Combining Segment Anything Model with Domain-Specific Knowledge
for Semi-Supervised Learning in Medical Image Segmentation [27.044797468878837]
Segment Anything Model (SAM)は、自然画像に広範囲のオブジェクトを分割する機能を示す。
本稿では、SAMとドメイン固有の知識を組み合わせて、ラベルなし画像の信頼性の高い利用法を提案する。
本研究は,医用画像セグメンテーションのための半教師あり学習の新たな方向性を創出する。
論文 参考訳(メタデータ) (2023-08-26T04:46:10Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Few-shot Medical Image Segmentation with Cycle-resemblance Attention [20.986884555902183]
医用画像セマンティックセグメンテーション分野における注目度は少ない。
本稿では,医療画像分割ネットワークを提案する。
本稿では,クエリと医用画像のサポートのピクセルワイド関係をフル活用するための新しいCRAモジュールを提案する。
論文 参考訳(メタデータ) (2022-12-07T21:55:26Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。