論文の概要: Training Like a Medical Resident: Universal Medical Image Segmentation
via Context Prior Learning
- arxiv url: http://arxiv.org/abs/2306.02416v2
- Date: Tue, 6 Jun 2023 02:00:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 12:00:29.090640
- Title: Training Like a Medical Resident: Universal Medical Image Segmentation
via Context Prior Learning
- Title(参考訳): 医療従事者としての訓練 : 文脈事前学習によるユニバーサル医療画像分割
- Authors: Yunhe Gao, Zhuowei Li, Di Liu, Mu Zhou, Shaoting Zhang, Dimitris N.
Metaxas
- Abstract要約: 本研究の目的は, 臨床対象, 身体領域, 画像モダリティの多種多様な医用画像ソースから学ぶことである。
7つの多様なデータセットのコレクションにおいて、従来のタスク固有のトレーニングパラダイムよりも普遍的なパラダイムの魅力を実証する。
2つの追加データセットに関する詳細な調査では、異なる下流タスクへのトランスファーラーニング、インクリメンタルラーニング、一般化に関するHermesの強みが明らかになった。
- 参考スコア(独自算出の注目度): 43.96585214685796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A major enduring focus of clinical workflows is disease analytics and
diagnosis, leading to medical imaging datasets where the modalities and
annotations are strongly tied to specific clinical objectives. To date,
building task-specific segmentation models is intuitive yet a restrictive
approach, lacking insights gained from widespread imaging cohorts. Inspired by
the training of medical residents, we explore universal medical image
segmentation, whose goal is to learn from diverse medical imaging sources
covering a range of clinical targets, body regions, and image modalities.
Following this paradigm, we propose Hermes, a context prior learning approach
that addresses the challenges related to the heterogeneity on data, modality,
and annotations in the proposed universal paradigm. In a collection of seven
diverse datasets, we demonstrate the appealing merits of the universal paradigm
over the traditional task-specific training paradigm. By leveraging the synergy
among various tasks, Hermes shows superior performance and model scalability.
Our in-depth investigation on two additional datasets reveals Hermes' strong
capabilities for transfer learning, incremental learning, and generalization to
different downstream tasks. The code is available:
https://github.com/yhygao/universal-medical-image-segmentation.
- Abstract(参考訳): 臨床ワークフローの主要な焦点は疾患の分析と診断であり、特定の臨床目的にモダリティとアノテーションが強く結びついている医療画像データセットに繋がる。
現在、タスク固有のセグメンテーションモデルの構築は直感的だが制限的なアプローチであり、広範な画像コホートから得られる洞察を欠いている。
医療従事者の研修に触発されて,医療用画像セグメンテーションを探究し,臨床対象,身体領域,画像モダリティの多種多様な医療用画像ソースから学ぶことを目標とした。
このパラダイムに従って,提案する普遍パラダイムにおけるデータ,モダリティ,アノテーションの多様性に関連する課題に対処する,コンテキスト優先学習アプローチであるhermesを提案する。
7つの多様なデータセットのコレクションにおいて、従来のタスク固有のトレーニングパラダイムよりも普遍的なパラダイムの魅力を実証する。
さまざまなタスク間でシナジーを活用することで、Hermesは優れたパフォーマンスとモデルのスケーラビリティを示している。
2つの追加データセットに関する詳細な調査から,hermesの強力なトランスファラーニング能力,インクリメンタル学習,さまざまな下流タスクへの一般化が明らかになった。
コードはhttps://github.com/yhygao/universal-medical-image-segmentation。
関連論文リスト
- DiCoM -- Diverse Concept Modeling towards Enhancing Generalizability in
Chest X-Ray Studies [7.181101025125887]
胸部X線(胸部X線、CXR)は、広く用いられている画像モダリティである。
自己指導型プレトレーニングは、多くの下流視覚タスクにおいて教師付きプレトレーニングよりも優れていることが証明されている。
本稿では,新しい自己教師型トレーニングパラダイムであるDiCoMについて紹介する。
論文 参考訳(メタデータ) (2024-02-22T20:51:37Z) - Unified Medical Image Pre-training in Language-Guided Common Semantic
Space [41.10756702551621]
我々はUnified Medical Image Pre-Trainingフレームワーク(UniMedI)を提案する。
UniMedIは、診断レポートを一般的な意味空間として使用し、医療画像の多様なモダリティの統一表現を作成する。
10種類のデータセットにまたがる2次元画像と3次元画像の性能評価を行った。
論文 参考訳(メタデータ) (2023-11-24T22:01:12Z) - fMRI-PTE: A Large-scale fMRI Pretrained Transformer Encoder for
Multi-Subject Brain Activity Decoding [54.17776744076334]
本稿では,fMRI事前学習のための革新的オートエンコーダであるfMRI-PTEを提案する。
我々のアプローチでは、fMRI信号を統合された2次元表現に変換し、次元の整合性を確保し、脳の活動パターンを保存する。
コントリビューションには、fMRI-PTEの導入、革新的なデータ変換、効率的なトレーニング、新しい学習戦略、そして我々のアプローチの普遍的な適用性が含まれる。
論文 参考訳(メタデータ) (2023-11-01T07:24:22Z) - Exploring Transfer Learning in Medical Image Segmentation using
Vision-Language Models [0.9324036842528547]
本稿では,VLSMの2次元医用画像への変換学習に関する最初のベンチマーク研究について述べる。
以上の結果から,VLSMは自然画像とテキストのペアで訓練され,ゼロショット設定で医療領域に合理的に移行することが示唆された。
しかし、微調整中の言語プロンプトのさらなる利点は限られているかもしれない。
論文 参考訳(メタデータ) (2023-08-15T11:28:21Z) - From CNN to Transformer: A Review of Medical Image Segmentation Models [7.3150850275578145]
医用画像セグメンテーションのための深層学習が主流となっている。
本稿では,近年最も代表的な4つの医用画像セグメンテーションモデルについて調査する。
理論的にこれらのモデルの特徴を解析し、2つのベンチマークデータセット上でそれらの性能を定量的に評価する。
論文 参考訳(メタデータ) (2023-08-10T02:48:57Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Customizing General-Purpose Foundation Models for Medical Report
Generation [64.31265734687182]
ラベル付き医用画像-レポートペアの不足は、ディープニューラルネットワークや大規模ニューラルネットワークの開発において大きな課題となっている。
本稿では,コンピュータビジョンと自然言語処理の基盤モデル (FM) として,市販の汎用大規模事前学習モデルのカスタマイズを提案する。
論文 参考訳(メタデータ) (2023-06-09T03:02:36Z) - Generalizable multi-task, multi-domain deep segmentation of sparse
pediatric imaging datasets via multi-scale contrastive regularization and
multi-joint anatomical priors [0.41998444721319217]
本稿では,複数のデータセットに対して単一セグメンテーションネットワークを最適化する,新しいマルチタスク・マルチドメイン学習フレームワークを提案する。
足関節, 膝関節, 肩関節の3つの軽度, 小児画像データセットを用いた骨分節術の成績について検討した。
論文 参考訳(メタデータ) (2022-07-27T12:59:16Z) - Domain Generalization on Medical Imaging Classification using Episodic
Training with Task Augmentation [62.49837463676111]
本稿では,医用画像分類におけるタスク強化によるエピソードトレーニングの新たな手法を提案する。
実際の医療展開において、限られた数のソースドメインによって動機付けられ、ユニークなタスクレベルのオーバーフィッティングを検討します。
論文 参考訳(メタデータ) (2021-06-13T03:56:59Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。