論文の概要: Segmentation of kidney stones in endoscopic video feeds
- arxiv url: http://arxiv.org/abs/2204.14175v1
- Date: Fri, 29 Apr 2022 16:00:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-02 18:42:38.647114
- Title: Segmentation of kidney stones in endoscopic video feeds
- Title(参考訳): 内視鏡映像における腎臓結石の分節化
- Authors: Zachary A Stoebner, Daiwei Lu, Seok Hee Hong, Nicholas L Kavoussi,
Ipek Oguz
- Abstract要約: 生のビデオからデータセットを構築する方法と、可能な限り多くのプロセスを自動化するパイプラインを開発する方法について説明します。
また, リアルタイム使用の可能性を示すため, 最適なトレーニングモデルにより, 毎秒30フレームの動画を正確にアノテートできることを確認した。
- 参考スコア(独自算出の注目度): 2.572404739180802
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image segmentation has been increasingly applied in medical settings as
recent developments have skyrocketed the potential applications of deep
learning. Urology, specifically, is one field of medicine that is primed for
the adoption of a real-time image segmentation system with the long-term aim of
automating endoscopic stone treatment. In this project, we explored supervised
deep learning models to annotate kidney stones in surgical endoscopic video
feeds. In this paper, we describe how we built a dataset from the raw videos
and how we developed a pipeline to automate as much of the process as possible.
For the segmentation task, we adapted and analyzed three baseline deep learning
models -- U-Net, U-Net++, and DenseNet -- to predict annotations on the frames
of the endoscopic videos with the highest accuracy above 90\%. To show clinical
potential for real-time use, we also confirmed that our best trained model can
accurately annotate new videos at 30 frames per second. Our results demonstrate
that the proposed method justifies continued development and study of image
segmentation to annotate ureteroscopic video feeds.
- Abstract(参考訳): 画像のセグメンテーションは、近年の深層学習の潜在的な応用が急増するにつれて、医療分野でますます応用されている。
特に尿学は、内視鏡的石の処理を自動化することを目的として、リアルタイム画像セグメンテーションシステムを採用するための医学の一分野である。
本研究では,手術用内視鏡映像フィードに腎臓結石を注記するための教師付き深層学習モデルについて検討した。
本稿では,生のビデオからデータセットを構築した方法と,プロセスを可能な限り自動化するためのパイプラインを開発した方法について述べる。
セグメンテーションタスクでは,U-Net,U-Net++,DenseNetの3つのベースラインディープラーニングモデルを適用し,90%以上の精度で内視鏡ビデオのフレーム上のアノテーションを予測した。
また, リアルタイム使用の可能性を示すため, 最適なトレーニングモデルにより, 毎秒30フレームの動画を正確にアノテートできることを確認した。
提案手法は尿管鏡下ビデオフィードへの画像セグメンテーションの継続的な展開と研究を正当化する。
関連論文リスト
- Dynamic Scene Graph Representation for Surgical Video [37.22552586793163]
我々は、シーングラフを、より包括的で意味があり、人間の読みやすい方法で、手術ビデオを表現するために活用する。
CaDISとCATARACTSのセマンティックセグメンテーションからシーングラフデータセットを作成する。
モデル決定の妥当性と堅牢性について,手術シーングラフの利点を実証する。
論文 参考訳(メタデータ) (2023-09-25T21:28:14Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - AutoLaparo: A New Dataset of Integrated Multi-tasks for Image-guided
Surgical Automation in Laparoscopic Hysterectomy [42.20922574566824]
ヒステリクトミー手術における学習ベースの自動化を容易にするために,複数の画像に基づく知覚タスクを組み込んだ最初の統合データセットを提示,リリースする。
我々のAutoLaparoデータセットは、全子宮摘出術のフル長ビデオに基づいて開発されている。
具体的には、外科的ワークフロー認識、腹腔鏡運動予測、機器とキー解剖のセグメンテーションを含む、3つの異なる高相関なタスクがデータセットで定式化されている。
論文 参考訳(メタデータ) (2022-08-03T13:17:23Z) - Cascaded Robust Learning at Imperfect Labels for Chest X-ray
Segmentation [61.09321488002978]
不完全アノテーションを用いた胸部X線分割のための新しいカスケードロバスト学習フレームワークを提案する。
モデルは3つの独立したネットワークから成り,ピアネットワークから有用な情報を効果的に学習できる。
提案手法は,従来の手法と比較して,セグメント化タスクの精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-04-05T15:50:16Z) - Inter-slice Context Residual Learning for 3D Medical Image Segmentation [38.43650000401734]
本稿では,3次元医用画像の正確なセグメンテーションのための3次元コンテキスト残差ネットワーク(ConResNet)を提案する。
このモデルはエンコーダ、セグメンテーションデコーダ、コンテキスト残留デコーダで構成される。
提案したConResNetは,脳腫瘍セグメンテーションにおける上位6つの方法と膵腫瘍セグメンテーションにおける上位7つの方法より正確である。
論文 参考訳(メタデータ) (2020-11-28T16:03:39Z) - Multi-frame Feature Aggregation for Real-time Instrument Segmentation in
Endoscopic Video [11.100734994959419]
ビデオフレームの特徴を時間的・空間的に集約するMFFA(Multi-frame Feature Aggregation)モジュールを提案する。
また,1つのラベル付きフレームからランダムに手術用フレームシーケンスを合成し,ネットワークトレーニングを支援する手法を開発した。
論文 参考訳(メタデータ) (2020-11-17T16:27:27Z) - Weakly-supervised Learning For Catheter Segmentation in 3D Frustum
Ultrasound [74.22397862400177]
超音波を用いた新しいカテーテルセグメンテーション法を提案する。
提案手法は,1ボリュームあたり0.25秒の効率で最先端の性能を実現した。
論文 参考訳(メタデータ) (2020-10-19T13:56:22Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - LRTD: Long-Range Temporal Dependency based Active Learning for Surgical
Workflow Recognition [67.86810761677403]
本稿では,費用対効果の高い手術ビデオ解析のための新しい能動的学習法を提案する。
具体的には,非局所的再帰的畳み込みネットワーク (NL-RCNet) を提案する。
手術ワークフロー認識タスクを実行することで,大規模な手術ビデオデータセット(Cholec80)に対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-04-21T09:21:22Z) - Self-supervised Representation Learning for Ultrasound Video [18.515314344284445]
本稿では,医用画像から有意義かつ伝達可能な表現を学習するための自己教師型学習手法を提案する。
我々は、データ自体から自由に監視することで、解剖学的タスクに対処するようモデルに強制する。
胎児超音波ビデオ実験により,提案手法が有意義で強い表現を効果的に学習できることが示唆された。
論文 参考訳(メタデータ) (2020-02-28T23:00:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。