論文の概要: Contrastive Transformer-based Multiple Instance Learning for Weakly
Supervised Polyp Frame Detection
- arxiv url: http://arxiv.org/abs/2203.12121v1
- Date: Wed, 23 Mar 2022 01:30:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 14:52:21.656301
- Title: Contrastive Transformer-based Multiple Instance Learning for Weakly
Supervised Polyp Frame Detection
- Title(参考訳): 弱教師付きポリプフレーム検出のためのコントラストトランスフォーマベース多重インスタンス学習
- Authors: Yu Tian and Guansong Pang and Fengbei Liu and Yuyuan Liu and Chong
Wang and Yuanhong Chen and Johan W Verjans and Gustavo Carneiro
- Abstract要約: 現在の大腸内視鏡ビデオからのポリープ検出法では、正常な(健康な)訓練画像のみを使用する。
我々は,ビデオレベルのラベル付き学習データを用いてフレームレベルのポリプを検出する弱教師付き異常検出タスクとして,ポリプ検出を定式化する。
- 参考スコア(独自算出の注目度): 30.51410140271929
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current polyp detection methods from colonoscopy videos use exclusively
normal (i.e., healthy) training images, which i) ignore the importance of
temporal information in consecutive video frames, and ii) lack knowledge about
the polyps. Consequently, they often have high detection errors, especially on
challenging polyp cases (e.g., small, flat, or partially visible polyps). In
this work, we formulate polyp detection as a weakly-supervised anomaly
detection task that uses video-level labelled training data to detect
frame-level polyps. In particular, we propose a novel convolutional
transformer-based multiple instance learning method designed to identify
abnormal frames (i.e., frames with polyps) from anomalous videos (i.e., videos
containing at least one frame with polyp). In our method, local and global
temporal dependencies are seamlessly captured while we simultaneously optimise
video and snippet-level anomaly scores. A contrastive snippet mining method is
also proposed to enable an effective modelling of the challenging polyp cases.
The resulting method achieves a detection accuracy that is substantially better
than current state-of-the-art approaches on a new large-scale colonoscopy video
dataset introduced in this work.
- Abstract(参考訳): 現在の大腸内視鏡ビデオからのポリープ検出法では正常(つまり正常な)トレーニング画像のみを用いる。
一 連続映像フレームにおける時間的情報の重要性を無視して
二 ポリープに関する知識がないこと。
その結果、しばしば高い検出誤差、特に難解なポリープ(例えば、小さい、平たい、部分的に見えるポリープ)に対して発生する。
本研究では,ビデオレベルのラベル付きトレーニングデータを用いてフレームレベルのポリプを検出する,弱教師付き異常検出タスクとしてポリプ検出を定式化する。
特に,異常なフレーム(ポリプ付きフレーム)を異常なビデオ(つまり,少なくとも1つのフレームとポリプを含むビデオ)から識別するために設計された,新しい畳み込みトランスフォーマベースの多重インスタンス学習手法を提案する。
本手法では,ビデオとスニペットレベルの異常スコアを同時に最適化しながら,局所的およびグローバルな時間的依存関係をシームレスにキャプチャする。
また, 難解なポリプケースを効果的にモデル化するために, 対照的なスニペットマイニング法を提案する。
本研究で紹介された大規模大腸内視鏡ビデオデータセットにおいて,最先端のアプローチよりも検出精度が大幅に向上する。
関連論文リスト
- SSTFB: Leveraging self-supervised pretext learning and temporal self-attention with feature branching for real-time video polyp segmentation [4.027361638728112]
本稿では,自己教師型学習を補助課題として行うビデオポリープセグメンテーション手法と,表現学習を改善するための空間的時間的自己認識機構を提案する。
実験により, 現状技術(SOTA)法の改良が示された。
本研究は,Diceの類似度係数と交叉結合度の両方において,ネットワークの精度が3%以上,10%近く向上することが確認された。
論文 参考訳(メタデータ) (2024-06-14T17:33:11Z) - ECC-PolypDet: Enhanced CenterNet with Contrastive Learning for Automatic
Polyp Detection [88.4359020192429]
既存の手法では、計算コストのかかるコンテキストアグリゲーションが伴うか、ポリープの事前モデリングが欠如しているため、難解なケースでは性能が低下する。
本稿では,2段階のトレーニングとエンドツーエンド推論フレームワークである Enhanced CenterNet with Contrastive Learning (ECC-PolypDet) を提案する。
Box-assisted Contrastive Learning (BCL) は, クラス内差を最小限に抑え, 前庭ポリープと背景のクラス間差を最大化するため, 隠れポリープを捕捉する。
微調整段階におけるIoU誘導サンプル再重み付けの導入
論文 参考訳(メタデータ) (2024-01-10T07:03:41Z) - Self-Supervised Polyp Re-Identification in Colonoscopy [1.9678816712224196]
視覚的外観による再同定に基づく頑健な長期ポリープ追跡手法を提案する。
我々のソリューションは、ビデオ入力の時間的特性を活用するために特別に設計されたアテンションベースの自己教師型MLモデルを使用する。
論文 参考訳(メタデータ) (2023-06-14T15:53:54Z) - YONA: You Only Need One Adjacent Reference-frame for Accurate and Fast
Video Polyp Detection [80.68520401539979]
textbfYONA (textbfYou textbfOnly textbfNeed one textbfAdjacent Reference-frame)は、ビデオポリープ検出のための効率的なエンドツーエンドのトレーニングフレームワークである。
提案したYONAは,従来の最先端の競合他社よりも精度と速度の両面で優れています。
論文 参考訳(メタデータ) (2023-06-06T13:53:15Z) - Accurate Real-time Polyp Detection in Videos from Concatenation of
Latent Features Extracted from Consecutive Frames [5.2009074009536524]
畳み込みニューラルネットワーク(CNN)は入力画像の小さな変化に対して脆弱である。
CNNベースのモデルは、連続したフレームに現れる同じポリプを見逃す可能性がある。
CNNを用いたエンコーダデコーダモデルの効率的な特徴結合法を提案する。
論文 参考訳(メタデータ) (2023-03-10T11:51:22Z) - Colonoscopy polyp detection with massive endoscopic images [4.458670612147842]
我々は、異なるデータセットで検証された平均精度を向上し、既存のエンドツーエンドのポリプ検出モデルを改善した。
我々のモデルは、リアルタイム検出速度を維持しつつ、最先端のポリプ検出性能を実現することができる。
論文 参考訳(メタデータ) (2022-02-17T16:07:59Z) - Self-Supervised Predictive Convolutional Attentive Block for Anomaly
Detection [97.93062818228015]
本稿では,再建に基づく機能を,新たな自己監督型予測アーキテクチャビルディングブロックに統合することを提案する。
我々のブロックは、受容領域におけるマスク領域に対する再構成誤差を最小限に抑える損失を備える。
画像やビデオの異常検出のための最先端フレームワークに組み込むことで,ブロックの汎用性を実証する。
論文 参考訳(メタデータ) (2021-11-17T13:30:31Z) - Colonoscopy Polyp Detection: Domain Adaptation From Medical Report
Images to Real-time Videos [76.37907640271806]
大腸内視鏡画像と実時間映像の領域間ギャップに対処する画像-ビデオ結合型ポリープ検出ネットワーク(Ivy-Net)を提案する。
収集したデータセットの実験は、Ivy-Netが大腸内視鏡ビデオで最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-12-31T10:33:09Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - Uncertainty-Aware Weakly Supervised Action Detection from Untrimmed
Videos [82.02074241700728]
本稿では,ビデオフレームラベルのみを用いてトレーニングした,禁止レベルの行動認識モデルを提案する。
人1人当たりの手法は、複数のインスタンス学習フレームワーク内の大規模な画像データセットで訓練されている。
標準的な多重インスタンス学習の仮定では、各バッグには、指定されたラベルを持つ少なくとも1つのインスタンスが含まれているという仮定が無効である場合、どのようにメソッドを適用するかを示す。
論文 参考訳(メタデータ) (2020-07-21T10:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。