論文の概要: Foundation Models for Biomedical Image Segmentation: A Survey
- arxiv url: http://arxiv.org/abs/2401.07654v1
- Date: Mon, 15 Jan 2024 12:49:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 17:10:36.553431
- Title: Foundation Models for Biomedical Image Segmentation: A Survey
- Title(参考訳): 医用画像セグメンテーションの基礎モデル:調査
- Authors: Ho Hin Lee, Yu Gu, Theodore Zhao, Yanbo Xu, Jianwei Yang, Naoto
Usuyama, Cliff Wong, Mu Wei, Bennett A. Landman, Yuankai Huo, Alberto
Santamaria-Pang, Hoifung Poon
- Abstract要約: Segment Anything Model (SAM) は、オブジェクトの種類や画像のモダリティを事前に知ることなく、画像内のオブジェクトを分割または識別することができる。
このレビューは2023年4月1日から2023年9月30日までの期間に焦点を当てている。
SAMは多くの用途で最先端のパフォーマンスを達成するが、頸動脈の分節、副腎、視神経、下顎骨などの特定の領域では不足している。
- 参考スコア(独自算出の注目度): 33.33304230919037
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in biomedical image analysis have been significantly
driven by the Segment Anything Model (SAM). This transformative technology,
originally developed for general-purpose computer vision, has found rapid
application in medical image processing. Within the last year, marked by over
100 publications, SAM has demonstrated its prowess in zero-shot learning
adaptations for medical imaging. The fundamental premise of SAM lies in its
capability to segment or identify objects in images without prior knowledge of
the object type or imaging modality. This approach aligns well with tasks
achievable by the human visual system, though its application in non-biological
vision contexts remains more theoretically challenging. A notable feature of
SAM is its ability to adjust segmentation according to a specified resolution
scale or area of interest, akin to semantic priming. This adaptability has
spurred a wave of creativity and innovation in applying SAM to medical imaging.
Our review focuses on the period from April 1, 2023, to September 30, 2023, a
critical first six months post-initial publication. We examine the adaptations
and integrations of SAM necessary to address longstanding clinical challenges,
particularly in the context of 33 open datasets covered in our analysis. While
SAM approaches or achieves state-of-the-art performance in numerous
applications, it falls short in certain areas, such as segmentation of the
carotid artery, adrenal glands, optic nerve, and mandible bone. Our survey
delves into the innovative techniques where SAM's foundational approach excels
and explores the core concepts in translating and applying these models
effectively in diverse medical imaging scenarios.
- Abstract(参考訳): バイオメディカル画像解析の最近の進歩は、Segment Anything Model (SAM) によって著しく推進されている。
この変換技術は、もともと汎用コンピュータビジョンのために開発されたもので、医療画像処理に急速に応用されている。
昨年、100以上の出版物によって特徴づけられたSAMは、医療画像のためのゼロショット学習適応の進歩を実証した。
SAMの基本的な前提は、オブジェクトのタイプや画像のモダリティを事前に知ることなく、画像内のオブジェクトを分割または識別する能力にある。
このアプローチは人間の視覚システムによって達成可能なタスクとよく一致しているが、非生物学的視覚コンテキストにおけるその適用は理論上は困難である。
SAMの特筆すべき特徴は、セグメンテーションを特定の解像度尺度や関心領域に応じて調整できることである。
この適応性はSAMを医療画像に適用する創造性と革新の波を刺激した。
本稿では2023年4月1日から2023年9月30日までの期間について概説する。
本稿では,長年にわたる臨床上の課題に対処するのに必要なSAMの適応と統合について,特に分析対象となる33のオープンデータセットの文脈で検討する。
SAMは多くの用途で最先端のパフォーマンスに近づいているが、頸動脈の分節、副腎、視神経、下顎骨などの特定の領域では不足している。
本調査では,SAMの基礎的アプローチが,様々な医療画像のシナリオにおいて,これらのモデルを効果的に翻訳・適用する上でのコアコンセプトを抜粋し,探求する革新的な手法について考察した。
関連論文リスト
- Med-PerSAM: One-Shot Visual Prompt Tuning for Personalized Segment Anything Model in Medical Domain [30.700648813505158]
文脈内学習に適したプロンプトを組み込んだ事前学習モデルの活用は、NLPタスクにおいて極めて効果的であることが証明されている。
textbfMed-PerSAMは,医療領域向けに設計された,新規で簡単なワンショット・フレームワークである。
本モデルは,多様な2次元医用画像データセットにおいて,基礎モデルおよび従来のSAMベースのアプローチより優れる。
論文 参考訳(メタデータ) (2024-11-25T06:16:17Z) - Segment Anything for Videos: A Systematic Survey [52.28931543292431]
最近のファンデーションモデルの波は、コンピュータビジョン(CV)などにおいて大きな成功を収めている。
セグメンテーション・アズ・モデル(SAM)はタスクに依存しない視覚基盤モデルを探究する情熱を喚起した。
本研究は,基礎モデル時代のビデオに対するSAMの体系的レビューを行う。
論文 参考訳(メタデータ) (2024-07-31T02:24:53Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - Segment Anything Model for Medical Image Segmentation: Current
Applications and Future Directions [8.216028136706948]
最近のSAM(Segment Anything Model)の導入は、プロンプト駆動パラダイムのイメージセグメンテーション領域への注目すべき拡張を意味している。
本稿では,SAMの有効性を医療画像分割タスクに拡張するための最近の取り組みについて概観する。
医療画像セグメンテーションにおけるSAMの役割について,今後の研究の道筋を探る。
論文 参考訳(メタデータ) (2024-01-07T14:25:42Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Towards Segment Anything Model (SAM) for Medical Image Segmentation: A
Survey [8.76496233192512]
本稿では,セグメンテーションモデルの成功を医療画像のセグメンテーションタスクに拡張する取り組みについて論じる。
医用画像解析の基礎モデルを開発するために、将来の研究を導くために多くの洞察が導かれる。
論文 参考訳(メタデータ) (2023-05-05T16:48:45Z) - SAM on Medical Images: A Comprehensive Study on Three Prompt Modes [12.42280534113305]
Segment Anything Model(SAM)が最近デビューし、多くの研究者がゼロショットの一般化能力の観点からその可能性と限界を探究した。
本稿では,SAMが医用画像分割タスクの基礎モデルになる可能性について評価する。
また、異なるモダリティを持つ最高のゼロショットパフォーマンスに、どのようなプロンプトが導くかについても検討する。
論文 参考訳(メタデータ) (2023-04-28T18:18:07Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - Segment Anything Model for Medical Image Analysis: an Experimental Study [19.95972201734614]
Segment Anything Model (SAM) は、ユーザ定義オブジェクトをインタラクティブな方法でセグメント化する基礎モデルである。
SAMの医用画像の分類能力について,各種のモダリティと解剖から,19の医用画像データセットの集合体を用いて評価した。
論文 参考訳(メタデータ) (2023-04-20T17:50:18Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。