論文の概要: Cycle Context Verification for In-Context Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2507.08357v1
- Date: Fri, 11 Jul 2025 07:18:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.268533
- Title: Cycle Context Verification for In-Context Medical Image Segmentation
- Title(参考訳): インコンテキスト医用画像分割のためのサイクルコンテキスト検証
- Authors: Shishuai Hu, Zehui Liao, Liangli Zhen, Huazhu Fu, Yong Xia,
- Abstract要約: In-context Learning (ICL) は、普遍的な医用画像セグメンテーションを実現するための有望な手法である。
臨床シナリオでは、注釈付き医用画像が不足しているため、最適なコンテキスト内ペアを選択することは困難である。
ICLに基づく医用画像のセグメンテーションを強化する新しいフレームワークであるCycle Context Verification (CCV)を提案する。
- 参考スコア(独自算出の注目度): 43.416111396585165
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In-context learning (ICL) is emerging as a promising technique for achieving universal medical image segmentation, where a variety of objects of interest across imaging modalities can be segmented using a single model. Nevertheless, its performance is highly sensitive to the alignment between the query image and in-context image-mask pairs. In a clinical scenario, the scarcity of annotated medical images makes it challenging to select optimal in-context pairs, and fine-tuning foundation ICL models on contextual data is infeasible due to computational costs and the risk of catastrophic forgetting. To address this challenge, we propose Cycle Context Verification (CCV), a novel framework that enhances ICL-based medical image segmentation by enabling self-verification of predictions and accordingly enhancing contextual alignment. Specifically, CCV employs a cyclic pipeline in which the model initially generates a segmentation mask for the query image. Subsequently, the roles of the query and an in-context pair are swapped, allowing the model to validate its prediction by predicting the mask of the original in-context image. The accuracy of this secondary prediction serves as an implicit measure of the initial query segmentation. A query-specific prompt is introduced to alter the query image and updated to improve the measure, thereby enhancing the alignment between the query and in-context pairs. We evaluated CCV on seven medical image segmentation datasets using two ICL foundation models, demonstrating its superiority over existing methods. Our results highlight CCV's ability to enhance ICL-based segmentation, making it a robust solution for universal medical image segmentation. The code will be available at https://github.com/ShishuaiHu/CCV.
- Abstract(参考訳): In-context Learning (ICL) は、画像モダリティにまたがる様々な関心の対象を単一のモデルでセグメント化できる、普遍的な医用画像セグメンテーションを実現するための有望な手法として浮上している。
それでもその性能は、クエリイメージとコンテキスト内イメージマスクペアのアライメントに非常に敏感である。
臨床シナリオでは、注釈付き医用画像の不足は、最適なコンテキスト内ペアの選択を困難にしており、文脈データに基づく微調整基盤ICLモデルは、計算コストと破滅的忘れのリスクのために実現不可能である。
この課題に対処するために、予測の自己検証を可能にし、コンテキストアライメントを強化することで、ICLベースの医用画像セグメンテーションを強化する新しいフレームワークであるCycle Context Verification (CCV)を提案する。
具体的には、CCVは、クエリ画像のセグメンテーションマスクを最初に生成する循環パイプラインを使用する。
その後、クエリとインコンテキストペアの役割をスワップし、元のインコンテキストイメージのマスクを予測してその予測を検証する。
この二次予測の精度は、初期クエリセグメンテーションの暗黙の尺度として機能する。
クエリ固有のプロンプトを導入してクエリイメージを変更して更新し、測定を改善し、クエリとインコンテキストのペア間のアライメントを強化する。
2つのICL基盤モデルを用いて7つの医用画像セグメンテーションデータセット上でCCVを評価し,既存の手法よりも優れていることを示した。
以上の結果から,ICLをベースとしたセグメンテーションを向上するCCVの能力が強調され,医用画像セグメンテーションの堅牢化が図られた。
コードはhttps://github.com/ShishuaiHu/CCVで入手できる。
関連論文リスト
- MAMBO-NET: Multi-Causal Aware Modeling Backdoor-Intervention Optimization for Medical Image Segmentation Network [51.68708264694361]
融合因子は、複雑な解剖学的変異や画像のモダリティ制限などの医療画像に影響を与える可能性がある。
医用画像セグメンテーションのためのバックドア・インターベンション最適化ネットワークを提案する。
本手法は, 混乱要因の影響を著しく低減し, セグメンテーション精度を向上させる。
論文 参考訳(メタデータ) (2025-05-28T01:40:10Z) - AutoMiSeg: Automatic Medical Image Segmentation via Test-Time Adaptation of Foundation Models [7.382887784956608]
本稿では,視覚言語とセグメンテーション基礎モデルを組み合わせたゼロショット自動セグメンテーションパイプラインを提案する。
適切な分解とテスト時間適応により、我々の完全自動パイプラインは、弱い確率で対話的な基礎モデルと競争的に機能する。
論文 参考訳(メタデータ) (2025-05-23T14:07:21Z) - CLIP-IT: CLIP-based Pairing for Histology Images Classification [6.5280377968471]
マルチモーダル学習は医用画像解析において有望であり、組織像やテキストなどの相補的なモダリティを組み合わせたものである。
CLIP-IT(CLIP-IT)は、ペア化されたデータ要求をなくし、リッチな未ペアテキストレポートに依存する新しいフレームワークである。
組織像データセットの実験により、CLIP-ITは、一様および多様のCLIPベースのベースラインの分類精度を一貫して改善することを確認した。
論文 参考訳(メタデータ) (2025-04-22T18:14:43Z) - CausalCLIPSeg: Unlocking CLIP's Potential in Referring Medical Image Segmentation with Causal Intervention [30.501326915750898]
本稿では医療画像セグメンテーションのためのエンドツーエンドフレームワークCausalCLIPSegを提案する。
医療データのトレーニングを受けていないにもかかわらず、医療領域にCLIPの豊富な意味空間を強制する。
CausalCLIPSegは、モデルが急激な相関関係を学習する可能性がある境界バイアスを軽減するために、因果介入モジュールを導入している。
論文 参考訳(メタデータ) (2025-03-20T08:46:24Z) - FlowSDF: Flow Matching for Medical Image Segmentation Using Distance Transforms [60.195642571004804]
本稿では,セグメンテーションマスクの暗黙分布を表現するために,画像誘導型条件付きフローマッチングフレームワークであるFlowSDFを紹介する。
本フレームワークは,セグメンテーションマスクの正確なサンプリングと関連する統計指標の計算を可能にする。
論文 参考訳(メタデータ) (2024-05-28T11:47:12Z) - Few-shot Medical Image Segmentation via Cross-Reference Transformer [3.2634122554914]
Few-shot segmentation(FSS)は、少数のラベル付きサンプルから新しいカテゴリを学習することで、これらの課題に対処する可能性がある。
そこで本研究では,クロス参照変換器を用いた画像分割ネットワークを提案する。
実験の結果,CTデータセットとMRIデータセットの両方で良好な結果が得られた。
論文 参考訳(メタデータ) (2023-04-19T13:05:18Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - Learning to Exploit Temporal Structure for Biomedical Vision-Language
Processing [53.89917396428747]
視覚言語処理における自己教師あり学習は、画像とテキストのモダリティのセマンティックアライメントを利用する。
トレーニングと微調整の両方で利用できる場合、事前のイメージとレポートを明示的に説明します。
我々のアプローチはBioViL-Tと呼ばれ、テキストモデルと共同で訓練されたCNN-Transformerハイブリッドマルチイメージエンコーダを使用する。
論文 参考訳(メタデータ) (2023-01-11T16:35:33Z) - Data-Limited Tissue Segmentation using Inpainting-Based Self-Supervised
Learning [3.7931881761831328]
プレテキストタスクを含む自己教師付き学習(SSL)メソッドは、ラベルなしデータを使用したモデルの最初の事前トレーニングによって、この要件を克服する可能性を示している。
ラベル限定シナリオにおけるCTとMRI画像のセグメンテーションにおける2つのSSL手法の有効性を評価する。
最適に訓練され,実装が容易なSSLセグメンテーションモデルは,ラベル制限シナリオにおけるMRIおよびCT組織セグメンテーションの古典的な手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-14T16:34:05Z) - A Simple Baseline for Zero-shot Semantic Segmentation with Pre-trained
Vision-language Model [61.58071099082296]
オブジェクト検出やセマンティックセグメンテーションといった、より広範な視覚問題に対して、ゼロショット認識をどのようにうまく機能させるかは定かではない。
本稿では,既訓練の視覚言語モデルであるCLIPを用いて,ゼロショットセマンティックセマンティックセマンティックセマンティクスを構築することを目的とした。
実験結果から, この単純なフレームワークは, 従来の最先端をはるかに上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2021-12-29T18:56:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。