論文の概要: EviPrompt: A Training-Free Evidential Prompt Generation Method for
Segment Anything Model in Medical Images
- arxiv url: http://arxiv.org/abs/2311.06400v1
- Date: Fri, 10 Nov 2023 21:22:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 18:46:38.825181
- Title: EviPrompt: A Training-Free Evidential Prompt Generation Method for
Segment Anything Model in Medical Images
- Title(参考訳): EviPrompt: 医用画像のセグメンテーションモデルのための訓練不要なエビデンシャル・プロンプト生成法
- Authors: Yinsong Xu, Jiaqi Tang, Aidong Men, Qingchao Chen
- Abstract要約: 医用画像のセグメンテーションは、臨床応用性は非常に高いが、深層学習の進歩にもかかわらず、依然として課題である。
本稿では,これらの課題を克服するために,EviPromptという新たなトレーニング不要なエフェクトプロンプト生成手法を提案する。
提案手法は,医用画像に固有の類似性に基づいて構築され,単一の参照画像アノテーションペアのみを必要とする。
- 参考スコア(独自算出の注目度): 14.899388051854084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical image segmentation has immense clinical applicability but remains a
challenge despite advancements in deep learning. The Segment Anything Model
(SAM) exhibits potential in this field, yet the requirement for expertise
intervention and the domain gap between natural and medical images poses
significant obstacles. This paper introduces a novel training-free evidential
prompt generation method named EviPrompt to overcome these issues. The proposed
method, built on the inherent similarities within medical images, requires only
a single reference image-annotation pair, making it a training-free solution
that significantly reduces the need for extensive labeling and computational
resources. First, to automatically generate prompts for SAM in medical images,
we introduce an evidential method based on uncertainty estimation without the
interaction of clinical experts. Then, we incorporate the human prior into the
prompts, which is vital for alleviating the domain gap between natural and
medical images and enhancing the applicability and usefulness of SAM in medical
scenarios. EviPrompt represents an efficient and robust approach to medical
image segmentation, with evaluations across a broad range of tasks and
modalities confirming its efficacy.
- Abstract(参考訳): 医用画像のセグメンテーションは臨床応用性が高いが, 深層学習の進歩にもかかわらず課題である。
SAM(Segment Anything Model)はこの分野での可能性を秘めているが、専門知識の介入と、自然画像と医用画像の領域ギャップは大きな障害となる。
本稿では,これらの課題を克服するために,EviPromptという新たなトレーニング不要なエフェクトプロンプト生成手法を提案する。
提案手法は医用画像に固有の類似性に基づいて構築され,単一の参照画像アノテーションペアのみを必要とするため,広範囲なラベル付けや計算資源の必要性を大幅に低減する,トレーニング不要のソリューションである。
まず,医療画像におけるSAMのプロンプトを自動生成するために,臨床専門家の相互作用を伴わない不確実性推定法を提案する。
そこで,本研究は,自然画像と医用画像の領域間ギャップを緩和し,SAMの医療的シナリオへの適用性や有用性を高めるために,ヒトの先行情報をプロンプトに組み込む。
EviPromptは、医療画像セグメンテーションに対する効率的で堅牢なアプローチであり、その有効性を確認する幅広いタスクやモダリティを評価している。
関連論文リスト
- Med-PerSAM: One-Shot Visual Prompt Tuning for Personalized Segment Anything Model in Medical Domain [30.700648813505158]
文脈内学習に適したプロンプトを組み込んだ事前学習モデルの活用は、NLPタスクにおいて極めて効果的であることが証明されている。
textbfMed-PerSAMは,医療領域向けに設計された,新規で簡単なワンショット・フレームワークである。
本モデルは,多様な2次元医用画像データセットにおいて,基礎モデルおよび従来のSAMベースのアプローチより優れる。
論文 参考訳(メタデータ) (2024-11-25T06:16:17Z) - Few Exemplar-Based General Medical Image Segmentation via Domain-Aware Selective Adaptation [28.186785488818135]
医用画像のセグメンテーションは、ドメインのギャップ、データモダリティの変化、ドメインの知識や専門家への依存による課題を引き起こす。
本稿では,自然画像で訓練した大規模モデルから学習した一般知識を,対応する医療領域・モダリティに適応させるための,ドメイン対応選択的適応手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T21:00:57Z) - MedUHIP: Towards Human-In-the-Loop Medical Segmentation [5.520419627866446]
医用画像のセグメンテーションは、固有の不確実性によって特に複雑である。
我々はtextbfuncertainty-aware モデルと textbf Human-in-the-loop 相互作用を統合する新しいアプローチを提案する。
提案手法は,決定論的および不確実性を考慮したモデルよりも優れたセグメンテーション能力を示す。
論文 参考訳(メタデータ) (2024-08-03T01:06:02Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - QUBIQ: Uncertainty Quantification for Biomedical Image Segmentation Challenge [93.61262892578067]
医用画像分割作業の不確実性、特にラター間変動性は重要な課題である。
この可変性は、自動セグメンテーションアルゴリズムの開発と評価に直接影響を及ぼす。
バイオメディカル画像量化チャレンジ(QUBIQ)における不確実性の定量化のベンチマーク結果を報告する。
論文 参考訳(メタデータ) (2024-03-19T17:57:24Z) - Segment Anything Model for Medical Image Segmentation: Current
Applications and Future Directions [8.216028136706948]
最近のSAM(Segment Anything Model)の導入は、プロンプト駆動パラダイムのイメージセグメンテーション領域への注目すべき拡張を意味している。
本稿では,SAMの有効性を医療画像分割タスクに拡張するための最近の取り組みについて概観する。
医療画像セグメンテーションにおけるSAMの役割について,今後の研究の道筋を探る。
論文 参考訳(メタデータ) (2024-01-07T14:25:42Z) - Multi-task Paired Masking with Alignment Modeling for Medical
Vision-Language Pre-training [55.56609500764344]
本稿では,マルチタスク・ペアド・マスキング・アライメント(MPMA)に基づく統合フレームワークを提案する。
また, メモリ拡張クロスモーダルフュージョン (MA-CMF) モジュールを導入し, 視覚情報を完全統合し, レポート再構築を支援する。
論文 参考訳(メタデータ) (2023-05-13T13:53:48Z) - Swin Deformable Attention Hybrid U-Net for Medical Image Segmentation [3.407509559779547]
そこで本研究では,Swin(Shifted Window)デフォルマブル・アテンションをハイブリッドアーキテクチャに組み込んでセグメンテーション性能を向上させることを提案する。
提案するSwing Deformable Attention Hybrid UNet (SDAH-UNet) は解剖学的および病変分割作業における最先端の性能を示す。
論文 参考訳(メタデータ) (2023-02-28T09:54:53Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。