論文の概要: A Lumen Segmentation Method in Ureteroscopy Images based on a Deep
Residual U-Net architecture
- arxiv url: http://arxiv.org/abs/2101.05021v1
- Date: Wed, 13 Jan 2021 11:41:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 07:53:45.322089
- Title: A Lumen Segmentation Method in Ureteroscopy Images based on a Deep
Residual U-Net architecture
- Title(参考訳): 深部残存u-netアーキテクチャに基づく尿管内視鏡像のルーメンセグメンテーション法
- Authors: Jorge F. Lazo, Aldo Marzullo, Sara Moccia, Michele Catellani, Benoit
Rosa, Michel de Mathelin, Elena De Momi
- Abstract要約: U-Netに基づくアーキテクチャにおける残余単位の利点を利用したディープニューラルネットワークの実装について検討する。
その結果, 灰色スケール画像のトレーニングは, それぞれ0.73, 0.58, 0.92のサイコロスコア, 精度, およびリコールの平均値が得られた。
- 参考スコア(独自算出の注目度): 11.457020223521605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ureteroscopy is becoming the first surgical treatment option for the majority
of urinary affections. This procedure is performed using an endoscope which
provides the surgeon with the visual information necessary to navigate inside
the urinary tract. Having in mind the development of surgical assistance
systems, that could enhance the performance of surgeon, the task of lumen
segmentation is a fundamental part since this is the visual reference which
marks the path that the endoscope should follow. This is something that has not
been analyzed in ureteroscopy data before. However, this task presents several
challenges given the image quality and the conditions itself of ureteroscopy
procedures. In this paper, we study the implementation of a Deep Neural Network
which exploits the advantage of residual units in an architecture based on
U-Net. For the training of these networks, we analyze the use of two different
color spaces: gray-scale and RGB data images. We found that training on
gray-scale images gives the best results obtaining mean values of Dice Score,
Precision, and Recall of 0.73, 0.58, and 0.92 respectively. The results
obtained shows that the use of residual U-Net could be a suitable model for
further development for a computer-aided system for navigation and guidance
through the urinary system.
- Abstract(参考訳): 尿管鏡は、尿中愛着の大多数に対して、最初の外科的治療の選択肢となっている。
この手順は、外科医に尿道内をナビゲートするために必要な視覚情報を提供する内視鏡を用いて実行される。
外科的補助システムの開発を念頭において, 内視鏡が従うべき経路を示す視覚的な基準であるため, ルーメンセグメンテーションの課題は基本的な部分である。
これは、これまで尿管内視鏡データで分析されていないものです。
しかし, この課題は, 尿管鏡検査の画質と条件を考慮に入れたいくつかの課題を提起する。
本稿では,U-Netに基づくアーキテクチャにおける残余単位の利点を利用したディープニューラルネットワークの実装について検討する。
これらのネットワークのトレーニングのために、グレースケールとRGBデータイメージの2つの異なる色空間の使用を分析する。
その結果, 灰色スケール画像のトレーニングは, それぞれ0.73, 0.58, 0.92のサイコロスコア, 精度, およびリコールの平均値が得られた。
その結果,尿路を通したナビゲーションおよび誘導のためのコンピュータ支援システムの開発に,残留u-netの使用が適したモデルとなる可能性が示唆された。
関連論文リスト
- Intraoperative Registration by Cross-Modal Inverse Neural Rendering [61.687068931599846]
クロスモーダル逆ニューラルレンダリングによる神経外科手術における術中3D/2Dレジストレーションのための新しいアプローチを提案する。
本手法では,暗黙の神経表現を2つの構成要素に分離し,術前および術中における解剖学的構造について検討した。
臨床症例の振り返りデータを用いて本法の有効性を検証し,現在の登録基準を満たした状態での最先端の検査成績を示した。
論文 参考訳(メタデータ) (2024-09-18T13:40:59Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Live image-based neurosurgical guidance and roadmap generation using
unsupervised embedding [53.992124594124896]
本稿では,注釈付き脳外科ビデオの大規模なデータセットを活用するライブ画像のみのガイダンスを提案する。
生成されたロードマップは、トレーニングセットの手術で取られた一般的な解剖学的パスをエンコードする。
166例の腹腔鏡下腺摘出術を施行し,本法の有効性について検討した。
論文 参考訳(メタデータ) (2023-03-31T12:52:24Z) - Parametric Scaling of Preprocessing assisted U-net Architecture for
Improvised Retinal Vessel Segmentation [1.3869502085838448]
本稿では,形態素前処理と拡張U-netアーキテクチャを併用した画像強調手法を提案する。
ROC曲線 (>0.9762) と分類精度 (>95.47%) の領域において、領域内の他のアルゴリズムと比較して顕著な改善が得られた。
論文 参考訳(メタデータ) (2022-03-18T15:26:05Z) - Depth estimation of endoscopy using sim-to-real transfer [1.5293427903448025]
本稿では,内視鏡シミュレーションにより深度像と内視鏡像の基底真実を生成する。
生成されたデータセットをトレーニングすることにより,定量的な内視鏡深度推定ネットワークを提案する。
論文 参考訳(メタデータ) (2021-12-27T10:05:01Z) - Colorectal Polyp Classification from White-light Colonoscopy Images via
Domain Alignment [57.419727894848485]
大腸内視鏡画像からの正確な診断を支援するためには,コンピュータ支援診断システムが必要である。
これまでのほとんどの研究では、Narrow-Band Imaging (NBI) や他の拡張画像を用いて、ポリプの分化モデルの開発を試みている。
正確な大腸ポリープ分類のための教師/学生アーキテクチャに基づく新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-08-05T09:31:46Z) - A transfer-learning approach for lesion detection in endoscopic images
from the urinary tract [10.909933734224026]
尿管鏡および嚢胞内視鏡は、尿路沿いの腫瘍を同定し治療するための金標準法である。
通常の手術では病変の10~20%が欠落していたことが報告されている。
本研究では,3種類の畳み込みニューラルネットワーク(CNN)を用いて,病変の有無にかかわらず尿路からの画像の分類を行った。
論文 参考訳(メタデータ) (2021-04-08T17:16:12Z) - Transfer Learning Through Weighted Loss Function and Group Normalization
for Vessel Segmentation from Retinal Images [0.0]
血管の血管構造は緑内障や糖尿病網膜症などの網膜疾患の診断に重要である。
深層学習とトランスファー学習を併用した網膜血管のセグメンテーション手法を提案する。
提案手法は,他の手法よりもセグメンテーション精度が高い。
論文 参考訳(メタデータ) (2020-12-16T20:34:48Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - Dense Residual Network for Retinal Vessel Segmentation [8.778525346264466]
走査型レーザー眼鏡視下網膜像において,血管の分画を効果的に行う方法を提案する。
U-Net,「機能マップの再利用」,残差学習に触発され,DRNetと呼ばれる高密度残差ネットワーク構造を提案する。
本手法は,データ拡張を伴わずとも最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-04-07T20:42:13Z) - Retinopathy of Prematurity Stage Diagnosis Using Object Segmentation and
Convolutional Neural Networks [68.96150598294072]
未熟児網膜症(英: Retinopathy of Prematurity、ROP)は、主に体重の低い未熟児に影響を及ぼす眼疾患である。
網膜の血管の増殖を招き、視力喪失を招き、最終的には網膜剥離を招き、失明を引き起こす。
近年,ディープラーニングを用いて診断を自動化する試みが盛んに行われている。
本稿では,従来のモデルの成功を基盤として,オブジェクトセグメンテーションと畳み込みニューラルネットワーク(CNN)を組み合わせた新しいアーキテクチャを開発する。
提案システムでは,まず対象分割モデルを訓練し,画素レベルでの区切り線を識別し,その結果のマスクを追加の"カラー"チャネルとして付加する。
論文 参考訳(メタデータ) (2020-04-03T14:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。