論文の概要: NULLBUS: Multimodal Mixed-Supervision for Breast Ultrasound Segmentation via Nullable Global-Local Prompts
- arxiv url: http://arxiv.org/abs/2512.20783v1
- Date: Tue, 23 Dec 2025 21:30:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.606025
- Title: NULLBUS: Multimodal Mixed-Supervision for Breast Ultrasound Segmentation via Nullable Global-Local Prompts
- Title(参考訳): NULLBUS:Nullable Global-Local Promptによる乳房超音波分割のためのマルチモーダル混合スーパービジョン
- Authors: Raja Mallina, Bryar Shareef,
- Abstract要約: マルチモーダルな混合スーパービジョンフレームワークであるNullBUSは、1つのモデルでプロンプトなしで画像から学習する。
N NullBUS は 0.8568 の平均 IoU と 0.9103 の平均 Dice を達成し、混合即時利用時の最先端性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Breast ultrasound (BUS) segmentation provides lesion boundaries essential for computer-aided diagnosis and treatment planning. While promptable methods can improve segmentation performance and tumor delineation when text or spatial prompts are available, many public BUS datasets lack reliable metadata or reports, constraining training to small multimodal subsets and reducing robustness. We propose NullBUS, a multimodal mixed-supervision framework that learns from images with and without prompts in a single model. To handle missing text, we introduce nullable prompts, implemented as learnable null embeddings with presence masks, enabling fallback to image-only evidence when metadata are absent and the use of text when present. Evaluated on a unified pool of three public BUS datasets, NullBUS achieves a mean IoU of 0.8568 and a mean Dice of 0.9103, demonstrating state-of-the-art performance under mixed prompt availability.
- Abstract(参考訳): 乳房超音波(BUS)セグメンテーションは、コンピュータ支援診断および治療計画に必須の病変境界を提供する。
プロンプト可能な方法は、テキストや空間的プロンプトが利用可能であるときにセグメンテーションのパフォーマンスと腫瘍のデラインを改善することができるが、多くのパブリックなBUSデータセットは信頼性のあるメタデータやレポートを欠き、小さなマルチモーダルサブセットへのトレーニングを制限し、堅牢性を低下させる。
マルチモーダル・ミックス・スーパービジョン・フレームワークであるNullBUSを提案する。
欠落したテキストを扱うために,学習可能なNull埋め込みとして実装されたnull許容プロンプトを導入し,メタデータが欠落した時に画像のみのエビデンスにフォールバックし,現在テキストを使用する。
3つのパブリックBUSデータセットの統一プールに基づいて、NullBUSは平均IoU 0.8568、平均Dice 0.9103を達成する。
関連論文リスト
- Memory-SAM: Human-Prompt-Free Tongue Segmentation via Retrieval-to-Prompt [4.712714373340359]
Memory-SAMは、トレーニングなし、人間プロンプトなしのパイプラインである。
前のケースの小さなメモリから有効プロンプトを自動的に生成する。
その結果,検索とプロンプトは舌画像における不規則境界の,データ効率,ロバストなセグメンテーションを可能にすることが示唆された。
論文 参考訳(メタデータ) (2025-10-17T17:42:28Z) - XBusNet: Text-Guided Breast Ultrasound Segmentation via Multimodal Vision-Language Learning [0.0]
XBusNetは、画像の特徴と臨床的な接地されたテキストを組み合わせた、新しいデュアルプロンプトでデュアルブランチのマルチモーダルモデルである。
5倍のクロスバリデーションを用いて,乳腺病変USG(BLU)データセット上で評価を行った。
小さな病変は最大の増加を示し、欠落した領域は少なく、急激な活性化は少ない。
論文 参考訳(メタデータ) (2025-09-08T20:45:55Z) - Grounding DINO-US-SAM: Text-Prompted Multi-Organ Segmentation in Ultrasound with LoRA-Tuned Vision-Language Models [4.981692533734272]
本研究では,複数の超音波臓器にまたがる物体セグメンテーションを実現するために,Grounding DINOとSAM2を統合したプロンプト駆動視覚言語モデル(VLM)を提案する。
胸, 甲状腺, 肝臓, 前立腺, 腎臓, 脊髄筋を含む18種類の超音波データセットが得られた。
提案手法は,UniverSeg,MedSAM,MedCLIP-SAM,BiomedParse,SAMUSなどの最先端セグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2025-06-30T14:33:44Z) - Eye-gaze Guided Multi-modal Alignment for Medical Representation Learning [65.54680361074882]
アイゲイズガイドマルチモーダルアライメント(EGMA)フレームワークは、アイゲイズデータを利用して、医用視覚的特徴とテキスト的特徴のアライメントを改善する。
我々は4つの医療データセット上で画像分類と画像テキスト検索の下流タスクを行う。
論文 参考訳(メタデータ) (2024-03-19T03:59:14Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - Learning Federated Visual Prompt in Null Space for MRI Reconstruction [83.71117888610547]
我々はMRI再建のためのグローバルプロンプトのヌル空間におけるフェデレートされた視覚的プロンプトを学習するための新しいアルゴリズムであるFedPRを提案する。
FedPRは、ローカルトレーニングデータの限られた量を与えられた場合、通信コストの6%で最先端のFLアルゴリズムを著しく上回っている。
論文 参考訳(メタデータ) (2023-03-28T17:46:16Z) - PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training [52.895952593202054]
医用画像セグメンテーションのためのPatch Confidence Adrial Training (PCA) と呼ばれる半教師付き対向法を提案する。
PCAは各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得る。
本手法は, 医用画像のセグメンテーションにおいて, 最先端の半教師付き手法より優れており, その有効性を示している。
論文 参考訳(メタデータ) (2022-07-24T07:45:47Z) - Medical Instrument Segmentation in 3D US by Hybrid Constrained
Semi-Supervised Learning [62.13520959168732]
3DUSにおける楽器セグメンテーションのための半教師付き学習フレームワークを提案する。
SSL学習を実現するため、Dual-UNetが提案されている。
提案手法は,Diceの約68.6%-69.1%,推定時間約1秒を実現している。
論文 参考訳(メタデータ) (2021-07-30T07:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。