論文の概要: PolypSegTrack: Unified Foundation Model for Colonoscopy Video Analysis
- arxiv url: http://arxiv.org/abs/2503.24108v2
- Date: Wed, 02 Apr 2025 19:58:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 09:34:09.322576
- Title: PolypSegTrack: Unified Foundation Model for Colonoscopy Video Analysis
- Title(参考訳): PolypSegTrack: 大腸内視鏡ビデオ解析のための統一基盤モデル
- Authors: Anwesa Choudhuri, Zhongpai Gao, Meng Zheng, Benjamin Planche, Terrence Chen, Ziyan Wu,
- Abstract要約: PolypSegTrackは、大腸内視鏡ビデオにおけるPolyp検出、セグメンテーション、分類、教師なし追跡を共同で扱う新しい基礎モデルである。
我々のアプローチは、新しい条件付きマスク損失を活用し、ピクセルレベルのセグメンテーションマスクまたはバウンディングボックスアノテーションを持つデータセット間の柔軟なトレーニングを可能にする。
我々の教師なし追跡モジュールは、視覚に頼ることなく、オブジェクトクエリを使用して、フレーム全体のポリプインスタンスを確実に関連付けます。
- 参考スコア(独自算出の注目度): 28.764513004699676
- License:
- Abstract: Early detection, accurate segmentation, classification and tracking of polyps during colonoscopy are critical for preventing colorectal cancer. Many existing deep-learning-based methods for analyzing colonoscopic videos either require task-specific fine-tuning, lack tracking capabilities, or rely on domain-specific pre-training. In this paper, we introduce PolypSegTrack, a novel foundation model that jointly addresses polyp detection, segmentation, classification and unsupervised tracking in colonoscopic videos. Our approach leverages a novel conditional mask loss, enabling flexible training across datasets with either pixel-level segmentation masks or bounding box annotations, allowing us to bypass task-specific fine-tuning. Our unsupervised tracking module reliably associates polyp instances across frames using object queries, without relying on any heuristics. We leverage a robust vision foundation model backbone that is pre-trained unsupervisedly on natural images, thereby removing the need for domain-specific pre-training. Extensive experiments on multiple polyp benchmarks demonstrate that our method significantly outperforms existing state-of-the-art approaches in detection, segmentation, classification, and tracking.
- Abstract(参考訳): 大腸内視鏡検査におけるポリープの早期検出, 正確な分画, 分類, 追跡は大腸癌予防に重要である。
大腸内視鏡ビデオを分析するための多くのディープラーニングベースの手法は、タスク固有の微調整、トラッキング能力の欠如、ドメイン固有の事前トレーニングに依存している。
本稿では,大腸内視鏡画像におけるポリープ検出,セグメンテーション,分類,教師なし追跡を共同で扱う新しい基盤モデルであるPolypSegTrackを紹介する。
我々のアプローチは、新しい条件付きマスク損失を活用し、ピクセルレベルのセグメンテーションマスクまたはバウンディングボックスアノテーションを持つデータセット間の柔軟なトレーニングを可能にし、タスク固有の微調整を回避します。
我々の教師なし追跡モジュールは、ヒューリスティックスに頼ることなく、オブジェクトクエリを使用して、フレーム全体のポリプインスタンスを確実に関連付けます。
我々は、自然画像に教師なしで事前学習された頑健な視覚基盤モデルバックボーンを活用し、ドメイン固有の事前学習の必要性をなくす。
複数のpolypベンチマーク実験により,本手法は検出,セグメンテーション,分類,追跡において既存の最先端手法を著しく上回っていることが示された。
関連論文リスト
- EndoFinder: Online Image Retrieval for Explainable Colorectal Polyp Diagnosis [10.83700068295662]
EndoFinderはコンテンツベースの画像検索フレームワークである。
新たに検出されたポリプが与えられた参照データベースでは、'デジタルツイン'ポリプが見つかる。
新しいポリプの臨床的意味は、一致したポリプを参照して推測することができる。
論文 参考訳(メタデータ) (2024-07-16T05:40:17Z) - Adaptation of Distinct Semantics for Uncertain Areas in Polyp Segmentation [11.646574658785362]
本研究は,ポリプ不確定領域に対する識別意味論の適応という新しいアーキテクチャを提示する。
ADSNetは、未分類の詳細を修正し、最終段階で消滅し、検出されない弱い特徴を回復する。
実験により,ポリプ画像分割作業における他の技術と比較して,セグメンテーション性能が向上することを示す。
論文 参考訳(メタデータ) (2024-05-13T07:41:28Z) - ECC-PolypDet: Enhanced CenterNet with Contrastive Learning for Automatic
Polyp Detection [88.4359020192429]
既存の手法では、計算コストのかかるコンテキストアグリゲーションが伴うか、ポリープの事前モデリングが欠如しているため、難解なケースでは性能が低下する。
本稿では,2段階のトレーニングとエンドツーエンド推論フレームワークである Enhanced CenterNet with Contrastive Learning (ECC-PolypDet) を提案する。
Box-assisted Contrastive Learning (BCL) は, クラス内差を最小限に抑え, 前庭ポリープと背景のクラス間差を最大化するため, 隠れポリープを捕捉する。
微調整段階におけるIoU誘導サンプル再重み付けの導入
論文 参考訳(メタデータ) (2024-01-10T07:03:41Z) - Self-Supervised Polyp Re-Identification in Colonoscopy [1.9678816712224196]
視覚的外観による再同定に基づく頑健な長期ポリープ追跡手法を提案する。
我々のソリューションは、ビデオ入力の時間的特性を活用するために特別に設計されたアテンションベースの自己教師型MLモデルを使用する。
論文 参考訳(メタデータ) (2023-06-14T15:53:54Z) - YONA: You Only Need One Adjacent Reference-frame for Accurate and Fast
Video Polyp Detection [80.68520401539979]
textbfYONA (textbfYou textbfOnly textbfNeed one textbfAdjacent Reference-frame)は、ビデオポリープ検出のための効率的なエンドツーエンドのトレーニングフレームワークである。
提案したYONAは,従来の最先端の競合他社よりも精度と速度の両面で優れています。
論文 参考訳(メタデータ) (2023-06-06T13:53:15Z) - Unsupervised Learning of Accurate Siamese Tracking [68.58171095173056]
分類枝と回帰枝の両方で時間対応を学習できる新しい教師なし追跡フレームワークを提案する。
トラッカーは、トラッカーネットやLaSOTのような大規模データセット上で、教師なしの手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2022-04-04T13:39:43Z) - Contrastive Transformer-based Multiple Instance Learning for Weakly
Supervised Polyp Frame Detection [30.51410140271929]
現在の大腸内視鏡ビデオからのポリープ検出法では、正常な(健康な)訓練画像のみを使用する。
我々は,ビデオレベルのラベル付き学習データを用いてフレームレベルのポリプを検出する弱教師付き異常検出タスクとして,ポリプ検出を定式化する。
論文 参考訳(メタデータ) (2022-03-23T01:30:48Z) - Automatic Polyp Segmentation via Multi-scale Subtraction Network [100.94922587360871]
臨床的には、正確なポリープセグメンテーションは大腸癌の早期発見に重要な情報を提供する。
既存のほとんどの手法はU字型構造に基づいており、デコーダで段階的に異なるレベルの特徴を融合させるために要素ワイド付加または結合を用いる。
大腸内視鏡画像からポリプを抽出するマルチスケールサブトラクションネットワーク(MSNet)を提案する。
論文 参考訳(メタデータ) (2021-08-11T07:54:07Z) - Colonoscopy Polyp Detection: Domain Adaptation From Medical Report
Images to Real-time Videos [76.37907640271806]
大腸内視鏡画像と実時間映像の領域間ギャップに対処する画像-ビデオ結合型ポリープ検出ネットワーク(Ivy-Net)を提案する。
収集したデータセットの実験は、Ivy-Netが大腸内視鏡ビデオで最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-12-31T10:33:09Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。