論文の概要: UniverSeg: Universal Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2304.06131v1
- Date: Wed, 12 Apr 2023 19:36:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 16:17:01.772553
- Title: UniverSeg: Universal Medical Image Segmentation
- Title(参考訳): universeg:ユニバーサル・メディカル・イメージセグメンテーション
- Authors: Victor Ion Butoi, Jose Javier Gonzalez Ortiz, Tianyu Ma, Mert R.
Sabuncu, John Guttag, Adrian V. Dalca
- Abstract要約: そこで,UniverSegを提案する。UniverSegは,未確認の医療セグメンテーションタスクを,追加のトレーニングなしで解決する手法である。
53のオープンアクセス医療セグメンテーションデータセットを22,000以上のスキャンで収集し、標準化しました。
我々はUniverSegが、未確認タスクにおいて、いくつかの関連メソッドを大幅に上回っていることを実証した。
- 参考スコア(独自算出の注目度): 16.19510845046103
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While deep learning models have become the predominant method for medical
image segmentation, they are typically not capable of generalizing to unseen
segmentation tasks involving new anatomies, image modalities, or labels. Given
a new segmentation task, researchers generally have to train or fine-tune
models, which is time-consuming and poses a substantial barrier for clinical
researchers, who often lack the resources and expertise to train neural
networks. We present UniverSeg, a method for solving unseen medical
segmentation tasks without additional training. Given a query image and example
set of image-label pairs that define a new segmentation task, UniverSeg employs
a new Cross-Block mechanism to produce accurate segmentation maps without the
need for additional training. To achieve generalization to new tasks, we have
gathered and standardized a collection of 53 open-access medical segmentation
datasets with over 22,000 scans, which we refer to as MegaMedical. We used this
collection to train UniverSeg on a diverse set of anatomies and imaging
modalities. We demonstrate that UniverSeg substantially outperforms several
related methods on unseen tasks, and thoroughly analyze and draw insights about
important aspects of the proposed system. The UniverSeg source code and model
weights are freely available at https://universeg.csail.mit.edu
- Abstract(参考訳): 深層学習モデルは医用画像セグメンテーションの主要な方法となっているが、通常、新しい解剖学、画像のモダリティ、ラベルを含む見えないセグメンテーションタスクに一般化することができない。
新しいセグメンテーションタスクが与えられた場合、研究者は一般的に、時間を要するモデルや、ニューラルネットワークをトレーニングするリソースや専門知識が欠如している臨床研究者にとって大きな障壁となる、微調整されたモデルを訓練する必要がある。
そこで本研究では,未発見の医学的分別課題を,追加の訓練なしで解決する手法であるユニバースgを提案する。
新しいセグメンテーションタスクを定義するクエリイメージとイメージラベルペアのサンプルセットが与えられると、universegは新しいクロスブロック機構を使用して、追加のトレーニングなしで正確なセグメンテーションマップを生成する。
新しいタスクの一般化を実現するため、53のオープンアクセス医療セグメンテーションデータセットを22,000以上のスキャンで収集、標準化し、MegaMedicalと呼ぶ。
私たちはこのコレクションを使って、UniverSegをさまざまな解剖学と画像モダリティのセットで訓練しました。
我々は,UniverSegが未確認タスクに関するいくつかの関連手法を大幅に上回り,提案システムの重要な側面に関する洞察を徹底的に分析し,引き出すことを実証した。
UniverSegのソースコードとモデルウェイトはhttps://universeg.csail.mit.eduで無料で入手できる。
関連論文リスト
- Tyche: Stochastic In-Context Learning for Medical Image Segmentation [3.7997415514096926]
Tycheは、コンテキストセットを使用して、以前見つからなかったタスクの予測を生成するモデルである。
本稿では,予測間の相互作用を可能にする新しい畳み込みブロックアーキテクチャを提案する。
適切なモデル設計と損失関数を組み合わせることで、Tycheは、再トレーニングを必要とせずに、新規または未確認の医療画像やセグメンテーションタスクに対して、妥当な多様なセグメンテーション候補のセットを予測することができる。
論文 参考訳(メタデータ) (2024-01-24T18:35:55Z) - GMISeg: General Medical Image Segmentation without Re-Training [6.6467547151592505]
本稿では、未知の医用画像分割タスクを、追加の訓練を必要とせずに解決できる一般的な方法を提案する。
GMISegはSAM(Segment Anything Model)イメージエンコーダに対する提案手法に基づく,新しい低ランク微調整戦略を適用している。
我々は,GMISegが未知のタスクにおける最新の手法よりも優れており,提案手法の重要な性能に関する総合的な分析と要約を行っていることを実証した。
論文 参考訳(メタデータ) (2023-11-21T11:33:15Z) - SamDSK: Combining Segment Anything Model with Domain-Specific Knowledge
for Semi-Supervised Learning in Medical Image Segmentation [27.044797468878837]
Segment Anything Model (SAM)は、自然画像に広範囲のオブジェクトを分割する機能を示す。
本稿では、SAMとドメイン固有の知識を組み合わせて、ラベルなし画像の信頼性の高い利用法を提案する。
本研究は,医用画像セグメンテーションのための半教師あり学習の新たな方向性を創出する。
論文 参考訳(メタデータ) (2023-08-26T04:46:10Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Training Like a Medical Resident: Universal Medical Image Segmentation
via Context Prior Learning [43.96585214685796]
本研究の目的は, 臨床対象, 身体領域, 画像モダリティの多種多様な医用画像ソースから学ぶことである。
7つの多様なデータセットのコレクションにおいて、従来のタスク固有のトレーニングパラダイムよりも普遍的なパラダイムの魅力を実証する。
2つの追加データセットに関する詳細な調査では、異なる下流タスクへのトランスファーラーニング、インクリメンタルラーニング、一般化に関するHermesの強みが明らかになった。
論文 参考訳(メタデータ) (2023-06-04T17:39:08Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Few-shot Medical Image Segmentation with Cycle-resemblance Attention [20.986884555902183]
医用画像セマンティックセグメンテーション分野における注目度は少ない。
本稿では,医療画像分割ネットワークを提案する。
本稿では,クエリと医用画像のサポートのピクセルワイド関係をフル活用するための新しいCRAモジュールを提案する。
論文 参考訳(メタデータ) (2022-12-07T21:55:26Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。