論文の概要: Training Like a Medical Resident: Universal Medical Image Segmentation
via Context Prior Learning
- arxiv url: http://arxiv.org/abs/2306.02416v1
- Date: Sun, 4 Jun 2023 17:39:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 17:56:13.432916
- Title: Training Like a Medical Resident: Universal Medical Image Segmentation
via Context Prior Learning
- Title(参考訳): 医療従事者としての訓練 : 文脈事前学習によるユニバーサル医療画像分割
- Authors: Yunhe Gao, Zhuowei Li, Di Liu, Mu Zhou, Shaoting Zhang, Dimitris N.
Meta
- Abstract要約: 本研究の目的は, 臨床対象, 身体領域, 画像モダリティの多種多様な医用画像ソースから学ぶことである。
7つの多様なデータセットのコレクションにおいて、従来のタスク固有のトレーニングパラダイムよりも普遍的なパラダイムの魅力を実証する。
2つの追加データセットに関する詳細な調査では、異なる下流タスクへのトランスファーラーニング、インクリメンタルラーニング、一般化に関するHermesの強みが明らかになった。
- 参考スコア(独自算出の注目度): 11.691327907235623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A major enduring focus of clinical workflows is disease analytics and
diagnosis, leading to medical imaging datasets where the modalities and
annotations are strongly tied to specific clinical objectives. To date,
building task-specific segmentation models is intuitive yet a restrictive
approach, lacking insights gained from widespread imaging cohorts. Inspired by
the training of medical residents, we explore universal medical image
segmentation, whose goal is to learn from diverse medical imaging sources
covering a range of clinical targets, body regions, and image modalities.
Following this paradigm, we propose Hermes, a context prior learning approach
that addresses the challenges related to the heterogeneity on data, modality,
and annotations in the proposed universal paradigm. In a collection of seven
diverse datasets, we demonstrate the appealing merits of the universal paradigm
over the traditional task-specific training paradigm. By leveraging the synergy
among various tasks, Hermes shows superior performance and model scalability.
Our in-depth investigation on two additional datasets reveals Hermes' strong
capabilities for transfer learning, incremental learning, and generalization to
different downstream tasks. The code is available:
https://github.com/yhygao/universal-medical-image-segmentation.
- Abstract(参考訳): 臨床ワークフローの主要な焦点は疾患の分析と診断であり、特定の臨床目的にモダリティとアノテーションが強く結びついている医療画像データセットに繋がる。
現在、タスク固有のセグメンテーションモデルの構築は直感的だが制限的なアプローチであり、広範な画像コホートから得られる洞察を欠いている。
医療従事者の研修に触発されて,医療用画像セグメンテーションを探究し,臨床対象,身体領域,画像モダリティの多種多様な医療用画像ソースから学ぶことを目標とした。
このパラダイムに従って,提案する普遍パラダイムにおけるデータ,モダリティ,アノテーションの多様性に関連する課題に対処する,コンテキスト優先学習アプローチであるhermesを提案する。
7つの多様なデータセットのコレクションにおいて、従来のタスク固有のトレーニングパラダイムよりも普遍的なパラダイムの魅力を実証する。
さまざまなタスク間でシナジーを活用することで、Hermesは優れたパフォーマンスとモデルのスケーラビリティを示している。
2つの追加データセットに関する詳細な調査から,hermesの強力なトランスファラーニング能力,インクリメンタル学習,さまざまな下流タスクへの一般化が明らかになった。
コードはhttps://github.com/yhygao/universal-medical-image-segmentation。
関連論文リスト
- Autoregressive Sequence Modeling for 3D Medical Image Representation [48.706230961589924]
本稿では, 自己回帰シーケンス事前学習フレームワークを用いて, 3次元医用画像表現を学習するための先駆的手法を提案する。
我々は,空間的,コントラスト的,意味的相関に基づく様々な3次元医用画像にアプローチし,トークンシーケンス内の相互接続された視覚トークンとして扱う。
論文 参考訳(メタデータ) (2024-09-13T10:19:10Z) - Do Vision Foundation Models Enhance Domain Generalization in Medical Image Segmentation? [10.20366295974822]
本稿では,2つの最先端デコーダヘッドであるHSAMとHQSAMの要素を統合し,セグメンテーション性能を向上させる新しいデコーダヘッドアーキテクチャであるHQHSAMを紹介する。
種々の解剖学やモダリティを含む複数のデータセットに対する実験により,FM,特にHQHSAMデコードヘッドを用いて,医用画像分割のための領域一般化が向上したことが明らかとなった。
論文 参考訳(メタデータ) (2024-09-12T11:41:35Z) - MOSMOS: Multi-organ segmentation facilitated by medical report supervision [10.396987980136602]
マルチオーガンスーパービジョン(MOS)のための新しい事前学習・微調整フレームワークを提案する。
具体的には、まず、トレーニング前の段階で、医用画像とレポートのペアを合わせるために、グローバルコントラスト学習を導入する。
さらに,画像画素と臓器タグ間の意味的対応を暗黙的に学習するために,マルチラベル認識を活用する。
論文 参考訳(メタデータ) (2024-09-04T03:46:17Z) - Unlocking the Power of Spatial and Temporal Information in Medical Multimodal Pre-training [99.2891802841936]
我々は,空間的・時間的微粒なモデリングのためのMed-STフレームワークを提案する。
空間モデリングでは、Med-STはMixture of View Expert (MoVE)アーキテクチャを使用して、正面と横の両方のビューから異なる視覚的特徴を統合する。
時間的モデリングのために,フォワードマッピング分類 (FMC) とリバースマッピング回帰 (RMR) による新たな双方向サイクル整合性目標を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:15:09Z) - Unified Medical Image Pre-training in Language-Guided Common Semantic Space [39.61770813855078]
我々はUnified Medical Image Pre-Trainingフレームワーク(UniMedI)を提案する。
UniMedIは、診断レポートを一般的な意味空間として使用し、医療画像の多様なモダリティの統一表現を作成する。
10種類のデータセットにまたがる2次元画像と3次元画像の性能評価を行った。
論文 参考訳(メタデータ) (2023-11-24T22:01:12Z) - From CNN to Transformer: A Review of Medical Image Segmentation Models [7.3150850275578145]
医用画像セグメンテーションのための深層学習が主流となっている。
本稿では,近年最も代表的な4つの医用画像セグメンテーションモデルについて調査する。
理論的にこれらのモデルの特徴を解析し、2つのベンチマークデータセット上でそれらの性能を定量的に評価する。
論文 参考訳(メタデータ) (2023-08-10T02:48:57Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - Generalizable multi-task, multi-domain deep segmentation of sparse
pediatric imaging datasets via multi-scale contrastive regularization and
multi-joint anatomical priors [0.41998444721319217]
本稿では,複数のデータセットに対して単一セグメンテーションネットワークを最適化する,新しいマルチタスク・マルチドメイン学習フレームワークを提案する。
足関節, 膝関節, 肩関節の3つの軽度, 小児画像データセットを用いた骨分節術の成績について検討した。
論文 参考訳(メタデータ) (2022-07-27T12:59:16Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。