論文の概要: EviPrompt: A Training-Free Evidential Prompt Generation Method for
Segment Anything Model in Medical Images
- arxiv url: http://arxiv.org/abs/2311.06400v1
- Date: Fri, 10 Nov 2023 21:22:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 18:46:38.825181
- Title: EviPrompt: A Training-Free Evidential Prompt Generation Method for
Segment Anything Model in Medical Images
- Title(参考訳): EviPrompt: 医用画像のセグメンテーションモデルのための訓練不要なエビデンシャル・プロンプト生成法
- Authors: Yinsong Xu, Jiaqi Tang, Aidong Men, Qingchao Chen
- Abstract要約: 医用画像のセグメンテーションは、臨床応用性は非常に高いが、深層学習の進歩にもかかわらず、依然として課題である。
本稿では,これらの課題を克服するために,EviPromptという新たなトレーニング不要なエフェクトプロンプト生成手法を提案する。
提案手法は,医用画像に固有の類似性に基づいて構築され,単一の参照画像アノテーションペアのみを必要とする。
- 参考スコア(独自算出の注目度): 14.899388051854084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical image segmentation has immense clinical applicability but remains a
challenge despite advancements in deep learning. The Segment Anything Model
(SAM) exhibits potential in this field, yet the requirement for expertise
intervention and the domain gap between natural and medical images poses
significant obstacles. This paper introduces a novel training-free evidential
prompt generation method named EviPrompt to overcome these issues. The proposed
method, built on the inherent similarities within medical images, requires only
a single reference image-annotation pair, making it a training-free solution
that significantly reduces the need for extensive labeling and computational
resources. First, to automatically generate prompts for SAM in medical images,
we introduce an evidential method based on uncertainty estimation without the
interaction of clinical experts. Then, we incorporate the human prior into the
prompts, which is vital for alleviating the domain gap between natural and
medical images and enhancing the applicability and usefulness of SAM in medical
scenarios. EviPrompt represents an efficient and robust approach to medical
image segmentation, with evaluations across a broad range of tasks and
modalities confirming its efficacy.
- Abstract(参考訳): 医用画像のセグメンテーションは臨床応用性が高いが, 深層学習の進歩にもかかわらず課題である。
SAM(Segment Anything Model)はこの分野での可能性を秘めているが、専門知識の介入と、自然画像と医用画像の領域ギャップは大きな障害となる。
本稿では,これらの課題を克服するために,EviPromptという新たなトレーニング不要なエフェクトプロンプト生成手法を提案する。
提案手法は医用画像に固有の類似性に基づいて構築され,単一の参照画像アノテーションペアのみを必要とするため,広範囲なラベル付けや計算資源の必要性を大幅に低減する,トレーニング不要のソリューションである。
まず,医療画像におけるSAMのプロンプトを自動生成するために,臨床専門家の相互作用を伴わない不確実性推定法を提案する。
そこで,本研究は,自然画像と医用画像の領域間ギャップを緩和し,SAMの医療的シナリオへの適用性や有用性を高めるために,ヒトの先行情報をプロンプトに組み込む。
EviPromptは、医療画像セグメンテーションに対する効率的で堅牢なアプローチであり、その有効性を確認する幅広いタスクやモダリティを評価している。
関連論文リスト
- Foundation Models for Biomedical Image Segmentation: A Survey [33.33304230919037]
Segment Anything Model (SAM) は、オブジェクトの種類や画像のモダリティを事前に知ることなく、画像内のオブジェクトを分割または識別することができる。
このレビューは2023年4月1日から2023年9月30日までの期間に焦点を当てている。
SAMは多くの用途で最先端のパフォーマンスを達成するが、頸動脈の分節、副腎、視神経、下顎骨などの特定の領域では不足している。
論文 参考訳(メタデータ) (2024-01-15T12:49:51Z) - Segment Anything Model for Medical Image Segmentation: Current
Applications and Future Directions [8.216028136706948]
最近のSAM(Segment Anything Model)の導入は、プロンプト駆動パラダイムのイメージセグメンテーション領域への注目すべき拡張を意味している。
本稿では,SAMの有効性を医療画像分割タスクに拡張するための最近の取り組みについて概観する。
医療画像セグメンテーションにおけるSAMの役割について,今後の研究の道筋を探る。
論文 参考訳(メタデータ) (2024-01-07T14:25:42Z) - Multi-task Paired Masking with Alignment Modeling for Medical
Vision-Language Pre-training [55.56609500764344]
本稿では,マルチタスク・ペアド・マスキング・アライメント(MPMA)に基づく統合フレームワークを提案する。
また, メモリ拡張クロスモーダルフュージョン (MA-CMF) モジュールを導入し, 視覚情報を完全統合し, レポート再構築を支援する。
論文 参考訳(メタデータ) (2023-05-13T13:53:48Z) - Towards Segment Anything Model (SAM) for Medical Image Segmentation: A
Survey [8.76496233192512]
本稿では,セグメンテーションモデルの成功を医療画像のセグメンテーションタスクに拡張する取り組みについて論じる。
医用画像解析の基礎モデルを開発するために、将来の研究を導くために多くの洞察が導かれる。
論文 参考訳(メタデータ) (2023-05-05T16:48:45Z) - Swin Deformable Attention Hybrid U-Net for Medical Image Segmentation [3.407509559779547]
そこで本研究では,Swin(Shifted Window)デフォルマブル・アテンションをハイブリッドアーキテクチャに組み込んでセグメンテーション性能を向上させることを提案する。
提案するSwing Deformable Attention Hybrid UNet (SDAH-UNet) は解剖学的および病変分割作業における最先端の性能を示す。
論文 参考訳(メタデータ) (2023-02-28T09:54:53Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - Self-Supervision with Superpixels: Training Few-shot Medical Image
Segmentation without Annotation [12.47837000630753]
ほとんどショットのセマンティックセグメンテーションは医療画像の応用に大きな可能性を秘めている。
既存のFSS技術の多くは、トレーニングのために豊富な注釈付きセマンティッククラスを必要とする。
本稿では,医用画像に対する自己監督型FSSフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-20T04:46:33Z) - Collaborative Unsupervised Domain Adaptation for Medical Image Diagnosis [102.40869566439514]
我々は、Unsupervised Domain Adaptation (UDA)を通じて、対象タスクにおける学習を支援するために、関連ドメインからの豊富なラベル付きデータを活用しようとしている。
クリーンなラベル付きデータやサンプルを仮定するほとんどのUDAメソッドが等しく転送可能であるのとは異なり、協調的教師なしドメイン適応アルゴリズムを革新的に提案する。
提案手法の一般化性能を理論的に解析し,医用画像と一般画像の両方で実験的に評価する。
論文 参考訳(メタデータ) (2020-07-05T11:49:17Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。