論文の概要: Efficient Universal Models for Medical Image Segmentation via Weakly Supervised In-Context Learning
- arxiv url: http://arxiv.org/abs/2510.05899v1
- Date: Tue, 07 Oct 2025 13:07:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.26178
- Title: Efficient Universal Models for Medical Image Segmentation via Weakly Supervised In-Context Learning
- Title(参考訳): 弱教師付きインコンテキスト学習による医用画像分割のための効率的なユニバーサルモデル
- Authors: Jiesi Hu, Yanwu Yang, Zhiyu Ye, Jinyan Zhou, Jianfeng Cao, Hanyang Peng, Ting Ma,
- Abstract要約: インタラクティブ・インコンテキスト・ラーニング(ICL)のような医用画像セグメンテーションのためのユニバーサルモデルは、強力な一般化を提供するが、広範なアノテーションを必要とする。
Weakly Supervised In-Context Learning (WS-ICL)を提案する。
実験の結果、WS-ICLは通常のICLモデルに匹敵する性能をかなり低いアノテーションコストで達成した。
- 参考スコア(独自算出の注目度): 10.142180965322623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Universal models for medical image segmentation, such as interactive and in-context learning (ICL) models, offer strong generalization but require extensive annotations. Interactive models need repeated user prompts for each image, while ICL relies on dense, pixel-level labels. To address this, we propose Weakly Supervised In-Context Learning (WS-ICL), a new ICL paradigm that leverages weak prompts (e.g., bounding boxes or points) instead of dense labels for context. This approach significantly reduces annotation effort by eliminating the need for fine-grained masks and repeated user prompting for all images. We evaluated the proposed WS-ICL model on three held-out benchmarks. Experimental results demonstrate that WS-ICL achieves performance comparable to regular ICL models at a significantly lower annotation cost. In addition, WS-ICL is highly competitive even under the interactive paradigm. These findings establish WS-ICL as a promising step toward more efficient and unified universal models for medical image segmentation. Our code and model are publicly available at https://github.com/jiesihu/Weak-ICL.
- Abstract(参考訳): 対話型およびコンテキスト内学習(ICL)モデルのような医用画像セグメンテーションのためのユニバーサルモデルは、強力な一般化を提供するが、広範なアノテーションを必要とする。
インタラクティブモデルは各画像に対して繰り返しユーザープロンプトを必要とし、ICLは密度の高いピクセルレベルのラベルに依存している。
そこで本研究では,弱いプロンプト(ボックスやポイントなど)を活用する新しいICLパラダイムであるWeakly Supervised In-Context Learning(WS-ICL)を提案する。
このアプローチは、すべての画像に対して、きめ細かいマスクと繰り返しユーザープロンプトを不要にすることで、アノテーションの労力を大幅に削減する。
提案したWS-ICLモデルを3つのベンチマークで評価した。
実験の結果,WS-ICLは通常のICLモデルに匹敵する性能を極めて低いアノテーションコストで達成していることがわかった。
加えて、WS-ICLはインタラクティブパラダイムの下でさえ非常に競争力があります。
これらの結果から,WS-ICLは医用画像セグメンテーションのためのより効率的で統一されたユニバーサルモデルに向けた有望なステップとして確立されている。
私たちのコードとモデルはhttps://github.com/jiesihu/Weak-ICL.comで公開されています。
関連論文リスト
- SegICL: A Multimodal In-context Learning Framework for Enhanced Segmentation in Medical Imaging [24.32438479339158]
In-Context Learning (ICL) を利用した画像セグメンテーション手法であるSegICLを紹介する。
SegICLはテキスト誘導セグメンテーションを採用し、少量のイメージマスクペアでテキスト内学習を行うことができる。
ショット供給時のセグメンテーション性能はゼロショット設定時の性能の約1.5倍である。
論文 参考訳(メタデータ) (2024-03-25T09:43:56Z) - CODIS: Benchmarking Context-Dependent Visual Comprehension for Multimodal Large Language Models [58.95889895912716]
我々は、自由形式のテキストで提供されるコンテキストを用いて視覚的理解を高めるモデルの有効性を評価するために、CODISと名付けられた新しいベンチマークを導入する。
以上の結果から,MLLMは必ずしも人体性能に劣っていることが示唆された。
このことは、MLLMが視覚を文脈依存的に理解する能力を高めることの必要性を浮き彫りにする。
論文 参考訳(メタデータ) (2024-02-21T08:21:12Z) - UMG-CLIP: A Unified Multi-Granularity Vision Generalist for Open-World Understanding [90.74967596080982]
本稿では,マルチグラニュラリティアライメントを備えたコントラスト言語-画像事前学習(CLIP)を拡張した。
UMG-CLIPと呼ばれる統一多言語学習フレームワークを開発した。
パラメータ効率のよいチューニングにより、UMG-CLIPは、現在広く使われているCLIPの亜種を超え、多様な画像理解ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-01-12T06:35:09Z) - LightCLIP: Learning Multi-Level Interaction for Lightweight
Vision-Language Models [45.672539931681065]
軽量CLIPモデルのトレーニングのためのマルチレベルインタラクションパラダイムを提案する。
マスク付きテキスト埋め込みに非マスク画像の埋め込みを注入する補助融合モジュールを提案する。
論文 参考訳(メタデータ) (2023-12-01T15:54:55Z) - SSLCL: An Efficient Model-Agnostic Supervised Contrastive Learning
Framework for Emotion Recognition in Conversations [20.856739541819056]
会話における感情認識(ERC)は、自然言語処理コミュニティの中で急速に進化している課題である。
We propose a efficient and model-agnostic SCL framework named Supervised Sample-Label Contrastive Learning with Soft-HGR Maximal correlation (SSLCL)。
浅い多層パーセプトロンを通して、離散ラベルを密度の高い埋め込みに投影することで、ラベル表現を活用する新しい視点を導入する。
論文 参考訳(メタデータ) (2023-10-25T14:41:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。