論文の概要: End-to-End Real-time Catheter Segmentation with Optical Flow-Guided
Warping during Endovascular Intervention
- arxiv url: http://arxiv.org/abs/2006.09117v1
- Date: Tue, 16 Jun 2020 12:53:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 21:41:06.508157
- Title: End-to-End Real-time Catheter Segmentation with Optical Flow-Guided
Warping during Endovascular Intervention
- Title(参考訳): 血管インターベンションにおけるオプティカルフローガイドドワープによるエンド・ツー・エンドリアルタイムカテーテル・セグメンテーション
- Authors: Anh Nguyen, Dennis Kundrat, Giulio Dagnino, Wenqiang Chi, Mohamed E.
M. K. Abdelaziz, Yao Guo, YingLiang Ma, Trevor M. Y. Kwok, Celia Riga, and
Guang-Zhong Yang
- Abstract要約: エンド・ツー・エンドおよびリアルタイムの深層学習フレームワークであるFW-Netについて述べる。
本研究では,時間的連続性を効果的に学習することにより,実地真実のみを用いてリアルタイムにカテーテルを分割・追跡できることを示す。
- 参考スコア(独自算出の注目度): 26.467626509096043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate real-time catheter segmentation is an important pre-requisite for
robot-assisted endovascular intervention. Most of the existing learning-based
methods for catheter segmentation and tracking are only trained on small-scale
datasets or synthetic data due to the difficulties of ground-truth annotation.
Furthermore, the temporal continuity in intraoperative imaging sequences is not
fully utilised. In this paper, we present FW-Net, an end-to-end and real-time
deep learning framework for endovascular intervention. The proposed FW-Net has
three modules: a segmentation network with encoder-decoder architecture, a flow
network to extract optical flow information, and a novel flow-guided warping
function to learn the frame-to-frame temporal continuity. We show that by
effectively learning temporal continuity, the network can successfully segment
and track the catheters in real-time sequences using only raw ground-truth for
training. Detailed validation results confirm that our FW-Net outperforms
state-of-the-art techniques while achieving real-time performance.
- Abstract(参考訳): 正確なリアルタイムカテーテルセグメンテーションは、ロボットによる血管内インターベンションにおいて重要な前提条件である。
既存の学習に基づくカテーテルのセグメンテーションと追跡の手法のほとんどは、地上構造アノテーションの難しさのために、小規模なデータセットや合成データでのみ訓練されている。
また,術中画像の時間的連続性は完全には利用されない。
本稿では,血管内介入のためのエンドツーエンドおよびリアルタイムディープラーニングフレームワークであるFW-Netを提案する。
提案するfw-netには,エンコーダデコーダアーキテクチャを用いたセグメンテーションネットワーク,光フロー情報を抽出するフローネットワーク,フレーム間時間連続性を学習するための新しいフロー誘導型ワーピング関数の3つのモジュールがある。
ネットワークは, 時間的連続性を効果的に学習することにより, 生の接地のみを用いて, カテーテルをリアルタイムにセグメンテーションし追跡することに成功した。
詳細な検証結果から,fw-netはリアルタイム性能を実現しつつ,最先端技術よりも優れています。
関連論文リスト
- Real-time guidewire tracking and segmentation in intraoperative x-ray [52.51797358201872]
リアルタイムガイドワイヤ分割と追跡のための2段階のディープラーニングフレームワークを提案する。
第1段階では、ヨロフ5検出器が元のX線画像と合成画像を使って訓練され、ターゲットのガイドワイヤのバウンディングボックスを出力する。
第2段階では、検出された各バウンディングボックスにガイドワイヤを分割するために、新規で効率的なネットワークが提案されている。
論文 参考訳(メタデータ) (2024-04-12T20:39:19Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Exploring Optical Flow Inclusion into nnU-Net Framework for Surgical Instrument Segmentation [1.3444601218847545]
nnU-Netフレームワークは、時間情報なしで単一のフレームを分析するセマンティックセグメンテーションに優れていた。
オプティカルフロー(OF)は、ビデオタスクでよく使われるツールで、動きを推定し、時間情報を含む単一のフレームで表現する。
本研究は,nU-Netアーキテクチャに付加的な入力として,オペレーショナル・インスツルメンテーション・セグメンテーション・タスクの性能向上を目的としている。
論文 参考訳(メタデータ) (2024-03-15T11:36:26Z) - Leveraging Frequency Domain Learning in 3D Vessel Segmentation [50.54833091336862]
本研究では,Fourier領域学習を3次元階層分割モデルにおけるマルチスケール畳み込みカーネルの代用として活用する。
管状血管分割作業において,新しいネットワークは顕著なサイス性能(ASACA500が84.37%,ImageCASが80.32%)を示した。
論文 参考訳(メタデータ) (2024-01-11T19:07:58Z) - Abstract Flow for Temporal Semantic Segmentation on the Permutohedral
Lattice [27.37701107719647]
バックボーンのLatticeNetを拡張して、時間的ポイントクラウドデータを処理します。
我々は,ネットワークがシーンの一部に類似した抽象的な特徴を持たせるための抽象フローという新しいモジュールを提案する。
我々は,実都市環境からのLiDARスキャンを含むSemantic KITTIデータセットの最先端結果を得た。
論文 参考訳(メタデータ) (2022-03-29T12:14:31Z) - Temporally Constrained Neural Networks (TCNN): A framework for
semi-supervised video semantic segmentation [5.0754434714665715]
本稿では,手術ビデオのセマンティックセグメンテーションに使用される半教師付きフレームワークTCNNを紹介する。
本研究では,オートエンコーダネットワークを用いて,空間的および時間的監視信号の両方を効率的に提供できることを示す。
予測マスクの低次元表現を有効活用して,スパースラベル付き両方のデータセットに一貫した改善を実現することを実証した。
論文 参考訳(メタデータ) (2021-12-27T18:06:12Z) - Efficient Global-Local Memory for Real-time Instrument Segmentation of
Robotic Surgical Video [53.14186293442669]
手術器具の知覚における重要な手がかりとして,隣接するフレームからの局所的時間依存性と,長距離における大域的意味的相関があげられる。
本稿では,グローバルとローカルの両方の時間的知識を関連付ける新しいデュアルメモリネットワーク(DMNet)を提案する。
本手法は,実時間速度を維持しながらセグメント化精度を向上する手法である。
論文 参考訳(メタデータ) (2021-09-28T10:10:14Z) - Simulation-to-Real domain adaptation with teacher-student learning for
endoscopic instrument segmentation [1.1047993346634768]
注釈付きシミュレーションデータとラベルのない実データから共同学習する教師学習手法を紹介します。
3つのデータセットの実証結果は、提案したフレームワークの有効性を浮き彫りにする。
論文 参考訳(メタデータ) (2021-03-02T09:30:28Z) - Real-Time Segmentation of Non-Rigid Surgical Tools based on Deep
Learning and Tracking [12.408997542491152]
リアルタイムツールセグメンテーションはコンピュータ支援手術システムにおいて欠かせない要素である。
本稿では,FCN(Fully Convolutional Networks)と光フロートラッキングに基づく新しいリアルタイム自動手法を提案する。
論文 参考訳(メタデータ) (2020-09-07T11:06:14Z) - A Prospective Study on Sequence-Driven Temporal Sampling and Ego-Motion
Compensation for Action Recognition in the EPIC-Kitchens Dataset [68.8204255655161]
行動認識はコンピュータビジョンにおける最上位の研究分野の一つである。
エゴモーション記録シーケンスは重要な関連性を持つようになった。
提案手法は,このエゴモーションやカメラの動きを推定して対処することを目的としている。
論文 参考訳(メタデータ) (2020-08-26T14:44:45Z) - Learning Motion Flows for Semi-supervised Instrument Segmentation from
Robotic Surgical Video [64.44583693846751]
本研究は,スパースアノテーションを用いたロボット手術ビデオから半教師楽器のセグメンテーションについて検討する。
生成されたデータペアを利用することで、我々のフレームワークはトレーニングシーケンスの時間的一貫性を回復し、強化することができます。
その結果,本手法は最先端の半教師あり手法よりも大きなマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-06T02:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。