論文の概要: Temporally-Aware Supervised Contrastive Learning for Polyp Counting in Colonoscopy
- arxiv url: http://arxiv.org/abs/2507.02493v1
- Date: Thu, 03 Jul 2025 09:55:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:16.082524
- Title: Temporally-Aware Supervised Contrastive Learning for Polyp Counting in Colonoscopy
- Title(参考訳): 大腸内視鏡検査におけるポリープ計数のための時間的監視型コントラスト学習
- Authors: Luca Parolari, Andrea Cherubini, Lamberto Ballan, Carlo Biffi,
- Abstract要約: 既存のポリプカウント法は自己教師あり学習に依存している。
本稿では、時間的に認識されたソフトターゲットを含む教師付きコントラスト損失を提案することで、パラダイムシフトを導入する。
その結果, 従来の手法に比べてフラグメンテーション率の2.2倍の低下がみられた。
- 参考スコア(独自算出の注目度): 5.7522869823664005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated polyp counting in colonoscopy is a crucial step toward automated procedure reporting and quality control, aiming to enhance the cost-effectiveness of colonoscopy screening. Counting polyps in a procedure involves detecting and tracking polyps, and then clustering tracklets that belong to the same polyp entity. Existing methods for polyp counting rely on self-supervised learning and primarily leverage visual appearance, neglecting temporal relationships in both tracklet feature learning and clustering stages. In this work, we introduce a paradigm shift by proposing a supervised contrastive loss that incorporates temporally-aware soft targets. Our approach captures intra-polyp variability while preserving inter-polyp discriminability, leading to more robust clustering. Additionally, we improve tracklet clustering by integrating a temporal adjacency constraint, reducing false positive re-associations between visually similar but temporally distant tracklets. We train and validate our method on publicly available datasets and evaluate its performance with a leave-one-out cross-validation strategy. Results demonstrate a 2.2x reduction in fragmentation rate compared to prior approaches. Our results highlight the importance of temporal awareness in polyp counting, establishing a new state-of-the-art. Code is available at https://github.com/lparolari/temporally-aware-polyp-counting.
- Abstract(参考訳): 大腸内視鏡検査におけるポリープ自動計数は,大腸内視鏡検診の費用対効果を高めるために,自動手順報告と品質管理への重要なステップである。
プロシージャにおけるポリープのカウントには、ポリープを検出し、追跡し、同じポリープエンティティに属するトラックレットをクラスタ化する。
既存のポリプカウント手法は自己教師付き学習に依存しており、主に視覚的外観を活用し、トラックレットの特徴学習とクラスタリングの段階の時間的関係を無視している。
本研究では、時間的に認識されたソフトターゲットを含む教師付きコントラスト損失を提案することで、パラダイムシフトを導入する。
本手法は, ポリープ間識別性を保ちつつ, ポリープ内変動を捉え, より堅牢なクラスタリングを実現する。
さらに、時間的隣接制約を統合することにより、トラックレットクラスタリングを改善し、視覚的に類似しているが時間的に離れたトラックレット間の偽陽性再連想を低減する。
我々は,我々の手法を公開データセット上でトレーニングし,検証し,その性能を評価する。
その結果, 従来の手法に比べてフラグメンテーション率の2.2倍の低下を示した。
以上の結果から,ポリープカウントにおける時間的意識の重要性が注目され,新たな最先端技術が確立された。
コードはhttps://github.com/lparolari/temporally-aware-polyp-counting.comで公開されている。
関連論文リスト
- Towards Polyp Counting In Full-Procedure Colonoscopy Videos [5.7522869823664005]
大きな課題は、フルプロデュール大腸内視鏡ビデオにおけるポリープ・トラックレットの自動識別、追跡、再結合(ReID)である。
本研究では,フルプロデューサビデオを提供する最初のオープンアクセスデータセットであるREAL-Colonデータセットを活用する。
我々は以前提案したポリプトラックレットの表現を学習するためのSimCLRベースの手法を再実装した。
提案手法は,REAL-Colonデータセットにおいて,ポリプフラグメンテーション率6.30と偽陽性率(FPR)を5%以下とした最先端性能を実現する。
論文 参考訳(メタデータ) (2025-02-14T10:02:38Z) - TSdetector: Temporal-Spatial Self-correction Collaborative Learning for Colonoscopy Video Detection [19.00902297385955]
本研究では,時間レベルの整合性学習と空間レベルの信頼性学習を統合した時間空間自己補正検出器(TSdetector)を提案する。
公開された3つのポリプビデオデータセットの実験結果は、TSdetectorが最も高いポリプ検出率を達成し、他の最先端手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-09-30T06:19:29Z) - SSTFB: Leveraging self-supervised pretext learning and temporal self-attention with feature branching for real-time video polyp segmentation [4.027361638728112]
本稿では,自己教師型学習を補助課題として行うビデオポリープセグメンテーション手法と,表現学習を改善するための空間的時間的自己認識機構を提案する。
実験により, 現状技術(SOTA)法の改良が示された。
本研究は,Diceの類似度係数と交叉結合度の両方において,ネットワークの精度が3%以上,10%近く向上することが確認された。
論文 参考訳(メタデータ) (2024-06-14T17:33:11Z) - Consisaug: A Consistency-based Augmentation for Polyp Detection in Endoscopy Image Analysis [3.716941460306804]
ディープラーニングを活用したデータ強化のための,革新的で効果的な手法であるConsisaugを紹介した。
5つのパブリックなポリプデータセットと3つのバックボーンにConsisaugを実装し,本手法の有効性を示した。
論文 参考訳(メタデータ) (2024-04-17T13:09:44Z) - ECC-PolypDet: Enhanced CenterNet with Contrastive Learning for Automatic
Polyp Detection [88.4359020192429]
既存の手法では、計算コストのかかるコンテキストアグリゲーションが伴うか、ポリープの事前モデリングが欠如しているため、難解なケースでは性能が低下する。
本稿では,2段階のトレーニングとエンドツーエンド推論フレームワークである Enhanced CenterNet with Contrastive Learning (ECC-PolypDet) を提案する。
Box-assisted Contrastive Learning (BCL) は, クラス内差を最小限に抑え, 前庭ポリープと背景のクラス間差を最大化するため, 隠れポリープを捕捉する。
微調整段階におけるIoU誘導サンプル再重み付けの導入
論文 参考訳(メタデータ) (2024-01-10T07:03:41Z) - Validating polyp and instrument segmentation methods in colonoscopy through Medico 2020 and MedAI 2021 Challenges [58.32937972322058]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - Learning to Mask and Permute Visual Tokens for Vision Transformer Pre-Training [55.12082817901671]
我々はMasked and Permuted Vision Transformer(MaPeT)という自己教師型事前学習手法を提案する。
MaPeTは、自動回帰および置換予測を使用して、パッチ内依存関係をキャプチャする。
以上の結果から,MaPeTはベースラインやコンペティターと同一のモデル設定で比較して,ImageNet上での競合性能を実証した。
論文 参考訳(メタデータ) (2023-06-12T18:12:19Z) - Robust Detection of Lead-Lag Relationships in Lagged Multi-Factor Models [61.10851158749843]
データ固有のリード-ラグ関係を発見することで、重要な洞察を得ることができる。
階層化多要素モデルにおけるリードラグ関係のロバスト検出のためのクラスタリング駆動手法を開発した。
論文 参考訳(メタデータ) (2023-05-11T10:30:35Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。