論文の概要: J-RAS: Enhancing Medical Image Segmentation via Retrieval-Augmented Joint Training
- arxiv url: http://arxiv.org/abs/2510.09953v2
- Date: Tue, 14 Oct 2025 15:57:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 14:23:56.901417
- Title: J-RAS: Enhancing Medical Image Segmentation via Retrieval-Augmented Joint Training
- Title(参考訳): J-RAS:検索統合トレーニングによる医用画像セグメンテーションの強化
- Authors: Salma J. Ahmed, Emad A. Mohammed, Azam Asilian Bidgoli,
- Abstract要約: 本稿では,探索モデルとセグメンテーションモデルを統合したガイド画像セグメンテーションのジョイントトレーニング手法を提案する。
どちらのモデルも最適化されており、セグメンテーションモデルは取得した画像とマスクのペアを利用して解剖学的理解を深めることができる。
2つのベンチマークデータセット上で、U-Net、TransUNet、SAM、SegFormerを含む複数のセグメンテーションバックボーンにわたるJ-RASを検証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image segmentation, the process of dividing images into meaningful regions, is critical in medical applications for accurate diagnosis, treatment planning, and disease monitoring. Although manual segmentation by healthcare professionals produces precise outcomes, it is time-consuming, costly, and prone to variability due to differences in human expertise. Artificial intelligence (AI)-based methods have been developed to address these limitations by automating segmentation tasks; however, they often require large, annotated datasets that are rarely available in practice and frequently struggle to generalize across diverse imaging conditions due to inter-patient variability and rare pathological cases. In this paper, we propose Joint Retrieval Augmented Segmentation (J-RAS), a joint training method for guided image segmentation that integrates a segmentation model with a retrieval model. Both models are jointly optimized, enabling the segmentation model to leverage retrieved image-mask pairs to enrich its anatomical understanding, while the retrieval model learns segmentation-relevant features beyond simple visual similarity. This joint optimization ensures that retrieval actively contributes meaningful contextual cues to guide boundary delineation, thereby enhancing the overall segmentation performance. We validate J-RAS across multiple segmentation backbones, including U-Net, TransUNet, SAM, and SegFormer, on two benchmark datasets: ACDC and M&Ms, demonstrating consistent improvements. For example, on the ACDC dataset, SegFormer without J-RAS achieves a mean Dice score of 0.8708$\pm$0.042 and a mean Hausdorff Distance (HD) of 1.8130$\pm$2.49, whereas with J-RAS, the performance improves substantially to a mean Dice score of 0.9115$\pm$0.031 and a mean HD of 1.1489$\pm$0.30. These results highlight the method's effectiveness and its generalizability across architectures and datasets.
- Abstract(参考訳): イメージセグメンテーションは、画像を意味のある領域に分割するプロセスであり、正確な診断、治療計画、疾患モニタリングのための医学的応用において重要である。
医療専門家による手動セグメンテーションは正確な結果をもたらすが、人的専門性の違いにより、時間を要する、コストがかかる、変動しがちである。
人工知能(AI)ベースの手法は、セグメンテーションタスクを自動化してこれらの制限に対処するために開発されたが、実際にはほとんど利用できない大規模な注釈付きデータセットを必要とすることが多く、患者間変異や稀な病理症例による多様な画像条件の一般化に苦慮することが多い。
本稿では,検索モデルとセグメンテーションモデルを統合したガイド画像セグメンテーションのジョイントトレーニング手法であるJ-RASを提案する。
どちらのモデルも共同最適化されており、抽出した画像とマスクのペアを利用して解剖学的理解を深めることが可能であり、一方、検索モデルは単純な視覚的類似性を超えたセグメンテーション関連の特徴を学習する。
この共同最適化により、検索が意味のある文脈的手がかりに積極的に寄与して境界線を導出し、全体のセグメンテーション性能を向上させる。
我々は、U-Net、TransUNet、SAM、SegFormerを含む複数のセグメンテーションバックボーンにわたるJ-RASを、ACDCとM&Mの2つのベンチマークデータセットで検証し、一貫した改善を実証した。
例えば、ACDCデータセットでは、J-RASのないSegFormerは平均Diceスコアが0.8708$\pm$0.042、平均Hausdorff Distance(HD)が1.8130$\pm$2.49、一方J-RASでは平均Diceスコアが0.9115$\pm$0.031、平均HDが1.1489$\pm$0.30となる。
これらの結果は,本手法の有効性と,アーキテクチャとデータセット間の一般化性を強調した。
関連論文リスト
- Assessing the Performance of the DINOv2 Self-supervised Learning Vision Transformer Model for the Segmentation of the Left Atrium from MRI Images [1.2499537119440245]
DINOv2は、MRIを用いたLAセグメンテーションのための自然画像に基づいて訓練された自己教師型学習視覚変換器である。
我々は、Diceスコアが.871で、Jaccard Indexが.792で、エンドツーエンドの微調整が可能な、正確で一貫したセグメンテーションを提供する能力を示す。
これらの結果は、DINOv2がMRIに限られたデータで効果的に適応し、セグメンテーションの競争ツールとしての可能性を強調し、医療画像の幅広い利用を促進することを示唆している。
論文 参考訳(メタデータ) (2024-11-14T17:15:51Z) - Handling Geometric Domain Shifts in Semantic Segmentation of Surgical RGB and Hyperspectral Images [67.66644395272075]
本稿では,幾何学的アウト・オブ・ディストリビューションデータに直面する場合の,最先端のセマンティックセマンティックセマンティクスモデルの最初の解析を行う。
本稿では, 汎用性を高めるために, 有機移植(Organ Transplantation)と呼ばれる拡張技術を提案する。
我々の拡張技術は、RGBデータに対して最大67%、HSIデータに対して90%のSOAモデル性能を改善し、実際のOODテストデータに対して、分配内パフォーマンスのレベルでのパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-27T19:13:15Z) - TotalSegmentator MRI: Robust Sequence-independent Segmentation of Multiple Anatomic Structures in MRI [59.86827659781022]
nnU-Netモデル(TotalSegmentator)をMRIおよび80原子構造で訓練した。
予測されたセグメンテーションと専門家基準セグメンテーションとの間には,ディススコアが算出され,モデル性能が評価された。
オープンソースで使いやすいモデルは、80構造の自動的で堅牢なセグメンテーションを可能にする。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - I-MedSAM: Implicit Medical Image Segmentation with Segment Anything [24.04558900909617]
提案するI-MedSAMは、連続表現とSAMの両方の利点を利用して、クロスドメイン能力と正確な境界線を求める。
トレーニング可能なパラメータが1.6Mしかない提案手法は、離散的および暗黙的を含む既存の手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-28T00:43:52Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Pairwise Relation Learning for Semi-supervised Gland Segmentation [90.45303394358493]
病理組織像における腺分節に対するPRS2モデルを提案する。
このモデルはセグメンテーションネットワーク(S-Net)とペア関係ネットワーク(PR-Net)から構成される。
我々は,GlaSデータセットの最近の5つの手法とCRAGデータセットの最近の3つの手法を比較した。
論文 参考訳(メタデータ) (2020-08-06T15:02:38Z) - Cross-Domain Segmentation with Adversarial Loss and Covariate Shift for
Biomedical Imaging [2.1204495827342438]
本論文は,異なるモダリティから異なるパターンと共有パターンをカプセル化することにより,ドメイン間データから堅牢な表現を学習できる新しいモデルの実現を目的とする。
正常な臨床試験で得られたCTおよびMRI肝データに対する試験は、提案したモデルが他のすべてのベースラインを大きなマージンで上回っていることを示している。
論文 参考訳(メタデータ) (2020-06-08T07:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。