論文の概要: Foundation AI Model for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2411.02745v1
- Date: Tue, 05 Nov 2024 02:31:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 14:58:59.763989
- Title: Foundation AI Model for Medical Image Segmentation
- Title(参考訳): 医用画像分割のための基礎的AIモデル
- Authors: Rina Bao, Erfan Darzi, Sheng He, Chuan-Heng Hsiao, Mohammad Arafat Hussain, Jingpeng Li, Atle Bjornerud, Ellen Grant, Yangming Ou,
- Abstract要約: ファウンデーションモデルは万能、一対一、一対一のソリューションを提供する。
医療画像のセグメンテーションでは、これら1対多または1対全の基礎モデルの必要性が高まっている。
医用画像セグメンテーションの基礎モデルを実現するための2つの経路について論じる。
- 参考スコア(独自算出の注目度): 4.149628679539645
- License:
- Abstract: Foundation models refer to artificial intelligence (AI) models that are trained on massive amounts of data and demonstrate broad generalizability across various tasks with high accuracy. These models offer versatile, one-for-many or one-for-all solutions, eliminating the need for developing task-specific AI models. Examples of such foundation models include the Chat Generative Pre-trained Transformer (ChatGPT) and the Segment Anything Model (SAM). These models have been trained on millions to billions of samples and have shown wide-ranging and accurate applications in numerous tasks such as text processing (using ChatGPT) and natural image segmentation (using SAM). In medical image segmentation - finding target regions in medical images - there is a growing need for these one-for-many or one-for-all foundation models. Such models could obviate the need to develop thousands of task-specific AI models, which is currently standard practice in the field. They can also be adapted to tasks with datasets too small for effective training. We discuss two paths to achieve foundation models for medical image segmentation and comment on progress, challenges, and opportunities. One path is to adapt or fine-tune existing models, originally developed for natural images, for use with medical images. The second path entails building models from scratch, exclusively training on medical images.
- Abstract(参考訳): 基礎モデルは、大量のデータに基づいて訓練され、高精度に様々なタスクにまたがる広範な一般化性を示す人工知能(AI)モデルを指す。
これらのモデルは、タスク固有のAIモデルを開発する必要をなくし、万能、一対一、一対一のソリューションを提供する。
このような基礎モデルの例としては、Chat Generative Pre-trained Transformer (ChatGPT)やSegment Anything Model (SAM)がある。
これらのモデルは数百万から数十億のサンプルで訓練され、テキスト処理(ChatGPTを使用)や自然な画像分割(SAMを使用)など、多くのタスクにおいて広範囲で正確な応用が示されている。
医用画像のセグメント化 - 医療用画像のターゲット領域を見つける - では、これら1対1または1対1の基礎モデルの必要性が高まっている。
このようなモデルは、現在この分野で標準的なプラクティスである何千ものタスク固有のAIモデルを開発する必要をなくす可能性がある。
また、データセットが小さすぎるタスクに適応して、効果的なトレーニングを行うこともできる。
医用画像セグメンテーションの基礎モデルを実現するための2つの方法について議論し、進歩、課題、機会についてコメントする。
1つの道は、元々は自然画像のために開発された既存のモデルを、医療画像に適応または微調整することである。
第2のパスは、医療画像のみをトレーニングする、ゼロからモデルを構築することを含む。
関連論文リスト
- Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - OpenMEDLab: An Open-source Platform for Multi-modality Foundation Models
in Medicine [55.29668193415034]
マルチモダリティ基盤モデルのためのオープンソースプラットフォームであるOpenMEDLabについて紹介する。
これは、最前線臨床および生体情報学応用のための大規模言語とビジョンモデルを刺激し、微調整する先駆的な試みの解決策をカプセル化する。
様々な医用画像のモダリティ、臨床テキスト、タンパク質工学など、事前訓練された基礎モデル群へのアクセスが可能である。
論文 参考訳(メタデータ) (2024-02-28T03:51:02Z) - VISION-MAE: A Foundation Model for Medical Image Segmentation and
Classification [36.8105960525233]
医用画像に特化して設計された新しい基礎モデルVISION-MAEを提案する。
VISION-MAEは、様々なモダリティから250万枚の未ラベル画像のデータセットでトレーニングされている。
その後、明示的なラベルを使って分類とセグメンテーションのタスクに適応する。
論文 参考訳(メタデータ) (2024-02-01T21:45:12Z) - Overcoming Data Scarcity in Biomedical Imaging with a Foundational
Multi-Task Model [2.5994154212235685]
大規模に事前訓練された基礎モデルは、医療以外の領域でかなりの成功を収めている。
本稿では,メモリ要件からトレーニングタスク数を分離するマルチタスク学習戦略を提案する。
論文 参考訳(メタデータ) (2023-11-16T12:20:25Z) - Foundational Models in Medical Imaging: A Comprehensive Survey and
Future Vision [6.2847894163744105]
ファンデーションモデルは、広範囲の下流タスクに適応した大規模で事前訓練されたディープラーニングモデルである。
これらのモデルは、コンテキスト推論、一般化、テスト時の迅速な機能を促進する。
コンピュータビジョンの進歩に乗じて、医療画像はこれらのモデルへの関心も高まっている。
論文 参考訳(メタデータ) (2023-10-28T12:08:12Z) - One-shot Localization and Segmentation of Medical Images with Foundation
Models [7.9060536840474365]
自然画像上で訓練されたモデルが,医用画像上で優れた性能を発揮することを示す。
テンプレート画像に対する対応を利用して、Segment Anything(SAM)モデルを単一ショットセグメンテーションに到達させる。
また,本手法は,最近提案された複数ショットセグメンテーション法であるUniverSegよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-28T08:58:20Z) - UnIVAL: Unified Model for Image, Video, Audio and Language Tasks [105.77733287326308]
UnIVALモデルは2つのモードを超えて、テキスト、画像、ビデオ、オーディオを1つのモデルに統合する。
本モデルは,タスクバランスとマルチモーダルカリキュラム学習に基づいて,多くのタスクに対して効率的に事前学習を行う。
統一モデルにより、重み一般化によるマルチモーダルモデルの融合に関する新しい研究を提案する。
論文 参考訳(メタデータ) (2023-07-30T09:48:36Z) - Empirical Analysis of a Segmentation Foundation Model in Prostate
Imaging [9.99042549094606]
医療画像セグメンテーションのための基盤モデルUniverSegについて考察する。
本研究では,前立腺画像の文脈における経験的評価研究を行い,従来のタスク固有セグメンテーションモデルの訓練手法と比較する。
論文 参考訳(メタデータ) (2023-07-06T20:00:52Z) - DINOv2: Learning Robust Visual Features without Supervision [75.42921276202522]
この研究は、既存の事前学習手法、特に自己教師付き手法が、多様なソースから十分なキュレートされたデータで訓練すれば、そのような特徴を生み出すことができることを示している。
技術的な貢献の多くは、大規模なトレーニングを加速し、安定化することを目的としています。
データの観点からは、自己組織化されていないデータではなく、専用で多様でキュレートされた画像データセットを構築するための自動パイプラインを提案する。
論文 参考訳(メタデータ) (2023-04-14T15:12:19Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Universal Model for Multi-Domain Medical Image Retrieval [88.67940265012638]
医用画像検索(MIR)は、医師が類似した患者のデータを素早く見つけるのに役立つ。
MIRはデジタル画像モダリティの多用により、ますます役に立ちつつある。
しかし、病院における様々なデジタル画像モダリティの人気もまた、MIRにいくつかの課題をもたらしている。
論文 参考訳(メタデータ) (2020-07-14T23:22:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。