論文の概要: FoldIt: Haustral Folds Detection and Segmentation in Colonoscopy Videos
- arxiv url: http://arxiv.org/abs/2106.12522v1
- Date: Wed, 23 Jun 2021 16:41:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 15:13:28.228727
- Title: FoldIt: Haustral Folds Detection and Segmentation in Colonoscopy Videos
- Title(参考訳): foldit: 大腸内視鏡ビデオにおけるhaustral foldsの検出とセグメンテーション
- Authors: Shawn Mathew, Saad Nadeem, Arie Kaufman
- Abstract要約: ハウスタルフォールド(Haustral fold)は、光学的大腸内視鏡法において、高いポリープミス率に関係した結腸壁隆起である。
本報告では,光学的大腸内視鏡画像からハスタルフォールドオーバーレイを用いた仮想大腸内視鏡画像への特徴持続的画像変換のための,新たな生成逆境ネットワークFoldItを提案する。
- 参考スコア(独自算出の注目度): 6.187780920448871
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Haustral folds are colon wall protrusions implicated for high polyp miss rate
during optical colonoscopy procedures. If segmented accurately, haustral folds
can allow for better estimation of missed surface and can also serve as
valuable landmarks for registering pre-treatment virtual (CT) and optical
colonoscopies, to guide navigation towards the anomalies found in pre-treatment
scans. We present a novel generative adversarial network, FoldIt, for
feature-consistent image translation of optical colonoscopy videos to virtual
colonoscopy renderings with haustral fold overlays. A new transitive loss is
introduced in order to leverage ground truth information between haustral fold
annotations and virtual colonoscopy renderings. We demonstrate the
effectiveness of our model on real challenging optical colonoscopy videos as
well as on textured virtual colonoscopy videos with clinician-verified haustral
fold annotations. All code and scripts to reproduce the experiments of this
paper will be made available via our Computational Endoscopy Platform at
https://github.com/nadeemlab/CEP.
- Abstract(参考訳): ホストラル折りたたみ(haustral fold)は、大腸内視鏡検査中に高いポリープミス率を示す大腸壁突起である。
正確にセグメンテーションされた場合、ハストラルフォールドは欠損面のより良い推定を可能にし、また前処理の仮想(CT)と光学的大腸内視鏡を登録するための貴重なランドマークとして機能し、前処理のスキャンで見つかった異常へのナビゲーションをガイドする。
本稿では,光学的大腸内視鏡映像から仮想大腸内視鏡画像へのハウストラルフォールドオーバーレイを用いた画像変換のための,新しい生成的逆向きネットワークfolditを提案する。
新しい推移的損失を導入し,Hustral fold アノテーションと仮想大腸内視鏡的レンダリングの接地真理情報を活用する。
そこで本研究では,本モデルの有効性を,実際に挑戦する光大腸内視鏡ビデオや,臨床医が検証したオーストラルフォールドアノテーションを用いたテクスチャ付き仮想大腸内視鏡ビデオに示す。
この論文の実験を再現するコードとスクリプトは、https://github.com/nadeemlab/CEPのComputational Endoscopy Platformで公開されます。
関連論文リスト
- Frontiers in Intelligent Colonoscopy [96.57251132744446]
本研究は, インテリジェント大腸内視鏡技術のフロンティアと, マルチモーダル医療への応用の可能性について検討する。
大腸内視鏡的シーン知覚のための4つのタスクを通して,現在のデータ中心およびモデル中心のランドスケープを評価した。
今後のマルチモーダル時代を受け入れるために,大規模マルチモーダル・インストラクション・チューニング・データセットColoninST,大腸内視鏡で設計されたマルチモーダル言語モデルColonGPT,マルチモーダル・ベンチマークの3つの基本イニシアティブを構築した。
論文 参考訳(メタデータ) (2024-10-22T17:57:12Z) - ToDER: Towards Colonoscopy Depth Estimation and Reconstruction with Geometry Constraint Adaptation [67.22294293695255]
そこで本稿では,ToDERという双方向適応アーキテクチャを用いて,高精度な深度推定を行う新しいパイプラインを提案する。
以上の結果から,本手法は実写および合成大腸内視鏡ビデオの深度マップを精度良く予測できることが示唆された。
論文 参考訳(メタデータ) (2024-07-23T14:24:26Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - ColNav: Real-Time Colon Navigation for Colonoscopy [0.0]
本稿では,光学的大腸内視鏡(OC)のための新しいリアルタイムナビゲーションシステムを提案する。
提案システムでは,大腸の非折りたたみ表現と,非検査領域に指示される局所指標の両方をリアルタイムに表示する手法を用いている。
以上の結果から,高ポリープリコール (PR) と高信頼度が得られた。
論文 参考訳(メタデータ) (2023-06-07T09:09:35Z) - Development of an Immersive Virtual Colonoscopy Viewer for Colon Growths
Diagnosis [0.4771971685916732]
我々は没入型分析をより効率的かつ効果的にするために,VRパラダイムの要素を探求する新しい設計を提案する。
また,専門家による実験の実施を計画し,カバレッジ,持続時間,診断精度の多要素的影響を評価する。
論文 参考訳(メタデータ) (2023-02-06T17:28:30Z) - Colonoscopy Landmark Detection using Vision Transformers [0.0]
手順中に撮影された120のビデオと2416のスナップショットのデータセットを収集しました。
我々は,視覚変換器を用いたランドマーク検出アルゴリズムを開発した。
テストデータセットのスナップショットに視覚変換器のバックボーンで82%の精度を報告した。
論文 参考訳(メタデータ) (2022-09-22T20:39:07Z) - Deep Learning-based Biological Anatomical Landmark Detection in
Colonoscopy Videos [21.384094148149003]
大腸内視鏡画像における生物学的な解剖学的ランドマークを検出するための,新しい深層学習に基づくアプローチを提案する。
平均検出精度は99.75%に達し、平均IoUは0.91であり、予測されるランドマーク周期と地上の真実との高い類似性を示している。
論文 参考訳(メタデータ) (2021-08-06T05:52:32Z) - Colorectal Polyp Classification from White-light Colonoscopy Images via
Domain Alignment [57.419727894848485]
大腸内視鏡画像からの正確な診断を支援するためには,コンピュータ支援診断システムが必要である。
これまでのほとんどの研究では、Narrow-Band Imaging (NBI) や他の拡張画像を用いて、ポリプの分化モデルの開発を試みている。
正確な大腸ポリープ分類のための教師/学生アーキテクチャに基づく新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-08-05T09:31:46Z) - NanoNet: Real-Time Polyp Segmentation in Video Capsule Endoscopy and
Colonoscopy [0.6125117548653111]
ビデオカプセル内視鏡と大腸内視鏡画像の分割のための新しいアーキテクチャであるNanoNetを提案する。
提案アーキテクチャはリアルタイム性能を実現し,他の複雑なアーキテクチャに比べて高いセグメンテーション精度を有する。
論文 参考訳(メタデータ) (2021-04-22T15:40:28Z) - Colonoscopy Polyp Detection: Domain Adaptation From Medical Report
Images to Real-time Videos [76.37907640271806]
大腸内視鏡画像と実時間映像の領域間ギャップに対処する画像-ビデオ結合型ポリープ検出ネットワーク(Ivy-Net)を提案する。
収集したデータセットの実験は、Ivy-Netが大腸内視鏡ビデオで最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-12-31T10:33:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。