論文の概要: Using spatial-temporal ensembles of convolutional neural networks for
lumen segmentation in ureteroscopy
- arxiv url: http://arxiv.org/abs/2104.01985v1
- Date: Mon, 5 Apr 2021 16:24:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 18:20:02.328549
- Title: Using spatial-temporal ensembles of convolutional neural networks for
lumen segmentation in ureteroscopy
- Title(参考訳): コンボリューションニューラルネットワークの時空間アンサンブルを用いた尿管鏡管内腔分割
- Authors: Jorge F. Lazo, Aldo Marzullo, Sara Moccia, Michele Catellani, Benoit
Rosa, Michel de Mathelin, Elena De Momi
- Abstract要約: 本稿では,畳み込みニューラルネットワーク(CNN)に基づく自動手法を提案する。
提案手法は4つの並列CNNのアンサンブルに基づいて,単一および複数フレーム情報を同時に処理する。
- 参考スコア(独自算出の注目度): 11.457020223521605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: Ureteroscopy is an efficient endoscopic minimally invasive technique
for the diagnosis and treatment of upper tract urothelial carcinoma (UTUC).
During ureteroscopy, the automatic segmentation of the hollow lumen is of
primary importance, since it indicates the path that the endoscope should
follow. In order to obtain an accurate segmentation of the hollow lumen, this
paper presents an automatic method based on Convolutional Neural Networks
(CNNs).
Methods: The proposed method is based on an ensemble of 4 parallel CNNs to
simultaneously process single and multi-frame information. Of these, two
architectures are taken as core-models, namely U-Net based in residual
blocks($m_1$) and Mask-RCNN($m_2$), which are fed with single still-frames
$I(t)$. The other two models ($M_1$, $M_2$) are modifications of the former
ones consisting on the addition of a stage which makes use of 3D Convolutions
to process temporal information. $M_1$, $M_2$ are fed with triplets of frames
($I(t-1)$, $I(t)$, $I(t+1)$) to produce the segmentation for $I(t)$.
Results: The proposed method was evaluated using a custom dataset of 11
videos (2,673 frames) which were collected and manually annotated from 6
patients. We obtain a Dice similarity coefficient of 0.80, outperforming
previous state-of-the-art methods.
Conclusion: The obtained results show that spatial-temporal information can
be effectively exploited by the ensemble model to improve hollow lumen
segmentation in ureteroscopic images. The method is effective also in presence
of poor visibility, occasional bleeding, or specular reflections.
- Abstract(参考訳): 目的: Ureteroscopy は上部尿路上皮癌(UTUC)の診断と治療に有用である。
尿管鏡検査では,内視鏡が追従すべき経路を示すため,空洞腔の自動分節が重要である。
本稿では,中空ルーメンの正確なセグメンテーションを得るために,畳み込みニューラルネットワーク(cnns)に基づく自動手法を提案する。
方法:提案手法は4つの並列CNNのアンサンブルに基づいて,単一および複数フレーム情報を同時に処理する。
これらのうち、u-net は残差ブロック($m_1$) と mask-rcnn($m_2$) をベースとし、1つの静止フレーム $i(t)$ が供給される。
他の2つのモデル(M_1$,$M_2$)は、時間情報を処理するために3D畳み込みを利用するステージの追加による前のモデルの変更である。
M_1$, $M_2$は、フレームのトリプル(I(t-1)$, $I(t+1)$, $I(t+1)$)で供給され、$I(t)$のセグメンテーションを生成する。
結果: 提案手法は6例の患者から手動で収集・注釈した11ビデオ(2,673フレーム)のカスタムデータセットを用いて評価した。
従来の最先端手法よりも優れたDice類似度係数0.80を得る。
結論: 尿管鏡画像における中空腔のセグメンテーションを改善するために, アンサンブルモデルにより時空間情報を効果的に活用できることが得られた。
この方法は、視界不良、時折出血、または特異反射の存在でも有効である。
関連論文リスト
- Intraoperative Registration by Cross-Modal Inverse Neural Rendering [61.687068931599846]
クロスモーダル逆ニューラルレンダリングによる神経外科手術における術中3D/2Dレジストレーションのための新しいアプローチを提案する。
本手法では,暗黙の神経表現を2つの構成要素に分離し,術前および術中における解剖学的構造について検討した。
臨床症例の振り返りデータを用いて本法の有効性を検証し,現在の登録基準を満たした状態での最先端の検査成績を示した。
論文 参考訳(メタデータ) (2024-09-18T13:40:59Z) - Acute ischemic stroke lesion segmentation in non-contrast CT images
using 3D convolutional neural networks [0.0]
非コントラストCT脳画像における急性虚血性脳梗塞の容積分画を目的とした自動アルゴリズムを提案する。
我々のディープラーニングアプローチは、人気のある3D U-Net畳み込みニューラルネットワークアーキテクチャに基づいている。
論文 参考訳(メタデータ) (2023-01-17T10:39:39Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - A Neural Ordinary Differential Equation Model for Visualizing Deep
Neural Network Behaviors in Multi-Parametric MRI based Glioma Segmentation [3.1435638364138105]
我々は,マルチパラメトリックMRI(mp-MRI)に基づくグリオーマセグメンテーションにおいて,ディープニューラルネットワーク(DNN)を可視化するためのニューラル常微分方程式(ODE)モデルを開発した。
すべてのニューラルODEモデルは、イメージダイナミクスを期待どおりに説明できた。
論文 参考訳(メタデータ) (2022-03-01T17:16:41Z) - Multiple Sclerosis Lesions Segmentation using Attention-Based CNNs in
FLAIR Images [0.2578242050187029]
多発性硬化症(Multiple Sclerosis、MS)は、中枢神経系の病変を引き起こす自己免疫性脱髄性疾患である。
今のところ、病変の分断には多要素自動バイオメディカルアプローチが多用されている。
著者らは1つのモダリティ(FLAIR画像)を用いてMS病変を正確に分類する方法を提案する。
論文 参考訳(メタデータ) (2022-01-05T21:37:43Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - Automatic CT Segmentation from Bounding Box Annotations using
Convolutional Neural Networks [2.554905387213585]
提案手法は,1)k平均クラスタリングによる境界ボックスアノテーションを用いた擬似マスクの生成,2)分割モデルとして3次元U-Net畳み込みニューラルネットワークを反復的に訓練する。
肝臓、脾臓、腎臓のセグメンテーションでは、それぞれ95.19%、92.11%、91.45%の精度を達成した。
論文 参考訳(メタデータ) (2021-05-29T14:48:16Z) - A self-supervised learning strategy for postoperative brain cavity
segmentation simulating resections [46.414990784180546]
畳み込みニューラルネットワーク(CNN)は最先端の画像セグメンテーション技術である。
CNNはトレーニングに大量の注釈付きデータセットを必要とする。
自己教師型学習戦略は、トレーニングにラベルのないデータを活用することができる。
論文 参考訳(メタデータ) (2021-05-24T12:27:06Z) - Multi-modal segmentation of 3D brain scans using neural networks [0.0]
深部畳み込みニューラルネットワークは、3D MRI(MPRAGE, DWI, FLAIR)とCTスキャンのセグメンテーションのために訓練される。
セグメンテーションの質は、合計27の解剖学的構造に対してディース計量を用いて定量化される。
論文 参考訳(メタデータ) (2020-08-11T09:13:54Z) - A Novel Approach for Correcting Multiple Discrete Rigid In-Plane Motions
Artefacts in MRI Scans [63.28835187934139]
本稿では,2つの入力枝を持つディープニューラルネットワークを用いた動きアーチファクトの除去手法を提案する。
提案法は患者の多動運動によって生成された人工物に応用できる。
論文 参考訳(メタデータ) (2020-06-24T15:25:11Z) - Appearance Learning for Image-based Motion Estimation in Tomography [60.980769164955454]
トモグラフィー画像では、取得した信号に擬似逆フォワードモデルを適用することにより、解剖学的構造を再構成する。
患者の動きは、復元過程における幾何学的アライメントを損なうため、運動アーティファクトが生じる。
本研究では,スキャン対象から独立して剛性運動の構造を認識する外観学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:49:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。