論文の概要: Endo-CLIP: Progressive Self-Supervised Pre-training on Raw Colonoscopy Records
- arxiv url: http://arxiv.org/abs/2505.09435v1
- Date: Wed, 14 May 2025 14:43:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.499558
- Title: Endo-CLIP: Progressive Self-Supervised Pre-training on Raw Colonoscopy Records
- Title(参考訳): Endo-CLIP:進行性自己監督型プレトレーニング : 大腸内視鏡検査による検討
- Authors: Yili He, Yan Zhu, Peiyao Fu, Ruijie Yang, Tianyi Chen, Zhihua Wang, Quanlin Li, Pinghong Zhou, Xian Yang, Shuo Wang,
- Abstract要約: 画像テキスト大腸内視鏡記録の事前トレーニングは、内視鏡画像解析を改善する大きな可能性を秘めている。
本稿では,この領域に対するコントラスト言語-画像事前学習(CLIP)を強化する,新たな自己教師型フレームワークであるEndo-CLIPを紹介する。
実験では、Endo-CLIPはゼロショットおよび少数ショットのポリープ検出と分類において最先端の事前訓練方法よりも著しく優れている。
- 参考スコア(独自算出の注目度): 25.683273197557934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-training on image-text colonoscopy records offers substantial potential for improving endoscopic image analysis, but faces challenges including non-informative background images, complex medical terminology, and ambiguous multi-lesion descriptions. We introduce Endo-CLIP, a novel self-supervised framework that enhances Contrastive Language-Image Pre-training (CLIP) for this domain. Endo-CLIP's three-stage framework--cleansing, attunement, and unification--addresses these challenges by (1) removing background frames, (2) leveraging large language models to extract clinical attributes for fine-grained contrastive learning, and (3) employing patient-level cross-attention to resolve multi-polyp ambiguities. Extensive experiments demonstrate that Endo-CLIP significantly outperforms state-of-the-art pre-training methods in zero-shot and few-shot polyp detection and classification, paving the way for more accurate and clinically relevant endoscopic analysis.
- Abstract(参考訳): 画像テキスト大腸内視鏡記録の事前トレーニングは、内視鏡的画像解析を改善する大きな可能性を秘めているが、非情報的背景画像、複雑な医療用語、曖昧な多要素記述などの課題に直面している。
本稿では,この領域に対するコントラスト言語-画像事前学習(CLIP)を強化する,新たな自己教師型フレームワークであるEndo-CLIPを紹介する。
Endo-CLIPの3段階の枠組みは,(1)背景フレームの除去,(2)大規模言語モデルによる臨床属性の抽出,(3)患者レベルのクロスアテンションを用いて多目的の曖昧さを解決することによって,これらの課題に対処する。
広汎な実験により、Endo-CLIPはゼロショットおよび少数ショットポリープ検出および分類において最先端の事前訓練法を著しく上回り、より正確で臨床的に関係のある内視鏡解析の道を開いた。
関連論文リスト
- CLIP in Medical Imaging: A Survey [59.429714742927956]
コントラスト言語-画像事前学習は、視覚モデルにテキスト管理を導入することに成功している。
CLIPの使用は最近、医療画像領域への関心が高まっている。
論文 参考訳(メタデータ) (2023-12-12T15:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。