論文の概要: Real-Time Segmentation of Non-Rigid Surgical Tools based on Deep
Learning and Tracking
- arxiv url: http://arxiv.org/abs/2009.03016v1
- Date: Mon, 7 Sep 2020 11:06:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 02:12:05.834892
- Title: Real-Time Segmentation of Non-Rigid Surgical Tools based on Deep
Learning and Tracking
- Title(参考訳): 深層学習と追跡に基づく非リジッド手術ツールのリアルタイム分割
- Authors: Luis C. Garc\'ia-Peraza-Herrera, Wenqi Li, Caspar Gruijthuijsen, Alain
Devreker, George Attilakos, Jan Deprest, Emmanuel Vander Poorten, Danail
Stoyanov, Tom Vercauteren, S\'ebastien Ourselin
- Abstract要約: リアルタイムツールセグメンテーションはコンピュータ支援手術システムにおいて欠かせない要素である。
本稿では,FCN(Fully Convolutional Networks)と光フロートラッキングに基づく新しいリアルタイム自動手法を提案する。
- 参考スコア(独自算出の注目度): 12.408997542491152
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time tool segmentation is an essential component in computer-assisted
surgical systems. We propose a novel real-time automatic method based on Fully
Convolutional Networks (FCN) and optical flow tracking. Our method exploits the
ability of deep neural networks to produce accurate segmentations of highly
deformable parts along with the high speed of optical flow. Furthermore, the
pre-trained FCN can be fine-tuned on a small amount of medical images without
the need to hand-craft features. We validated our method using existing and new
benchmark datasets, covering both ex vivo and in vivo real clinical cases where
different surgical instruments are employed. Two versions of the method are
presented, non-real-time and real-time. The former, using only deep learning,
achieves a balanced accuracy of 89.6% on a real clinical dataset, outperforming
the (non-real-time) state of the art by 3.8% points. The latter, a combination
of deep learning with optical flow tracking, yields an average balanced
accuracy of 78.2% across all the validated datasets.
- Abstract(参考訳): リアルタイムツールセグメンテーションはコンピュータ支援手術システムにおいて不可欠な要素である。
本稿では,FCN(Fully Convolutional Networks)と光フロートラッキングに基づく新しいリアルタイム自動手法を提案する。
本手法は, 深層ニューラルネットワークを用いて, 高速光流とともに, 変形性の高い部品の正確なセグメント化を実現する。
さらに、事前訓練されたFCNは、手作りの機能を必要とせずに、少量の医療画像に微調整することができる。
既存のベンチマーク・データセットと新しいベンチマーク・データセットを用いて,異なる手術器具を用いた実検例と生体内臨床例を比較検討した。
非リアルタイムとリアルタイムの2つのバージョンが提示される。
前者はディープラーニングのみを使用して、実際の臨床データセットで89.6%のバランスの取れた精度を達成し、芸術の(非リアルタイム)状態を3.8%上回る。
後者は、ディープラーニングとオプティカルフロートラッキングを組み合わせることで、検証済みデータセット全体の平均平衡精度が78.2%になる。
関連論文リスト
- Efficient Deformable Tissue Reconstruction via Orthogonal Neural Plane [58.871015937204255]
変形性組織を再建するための高速直交平面(Fast Orthogonal Plane)を導入する。
我々は外科手術を4Dボリュームとして概念化し、それらをニューラルネットワークからなる静的および動的フィールドに分解する。
この分解により4次元空間が増加し、メモリ使用量が減少し、最適化が高速化される。
論文 参考訳(メタデータ) (2023-12-23T13:27:50Z) - Multicenter automatic detection of invasive carcinoma on breast whole
slide images [0.0]
実践者が信頼できる高速で信頼性の高いアルゴリズムを開発するのは難しい。
本稿では,乳腺全スライディング画像から浸潤癌を検出し,発見するために,畳み込みニューラルネットワークを組み込んだパッチベースのアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2023-01-17T10:30:34Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - Automatic identification of segmentation errors for radiotherapy using
geometric learning [0.0]
この研究の目的は、3D OARセグメンテーションにおけるエラーを自動的に識別するツールを開発することであった。
提案モデルは,耳下腺のセグメンテーションの合成データセットを用いて,自己教師付き学習を用いて訓練される。
内耳と外耳の誤差は85.0%, 89.7%と予測された。
論文 参考訳(メタデータ) (2022-06-27T14:01:52Z) - Federated Cycling (FedCy): Semi-supervised Federated Learning of
Surgical Phases [57.90226879210227]
FedCyは、FLと自己教師付き学習を組み合わせた半教師付き学習(FSSL)手法で、ラベル付きビデオとラベルなしビデオの両方の分散データセットを利用する。
外科的段階の自動認識作業において,最先端のFSSL法よりも顕著な性能向上を示した。
論文 参考訳(メタデータ) (2022-03-14T17:44:53Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - SurgeonAssist-Net: Towards Context-Aware Head-Mounted Display-Based
Augmented Reality for Surgical Guidance [18.060445966264727]
SurgeonAssist-Netは、アクション・アンド・ワークフロー駆動の仮想アシストを、市販の光学シースルーヘッドマウントディスプレイ(OST-HMD)に利用できるようにするフレームワークである。
本実装は,タスクの自動認識のための予測精度において,最先端の手法と競合する。
これはMicrosoft HoloLens 2 OST-HMD上でほぼリアルタイムで動作することができる。
論文 参考訳(メタデータ) (2021-07-13T21:12:34Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z) - Searching for Efficient Architecture for Instrument Segmentation in
Robotic Surgery [58.63306322525082]
ほとんどのアプリケーションは、高解像度の外科画像の正確なリアルタイムセグメンテーションに依存している。
我々は,高解像度画像のリアルタイム推論を行うために調整された,軽量で高効率なディープ残差アーキテクチャを設計する。
論文 参考訳(メタデータ) (2020-07-08T21:38:29Z) - End-to-End Real-time Catheter Segmentation with Optical Flow-Guided
Warping during Endovascular Intervention [26.467626509096043]
エンド・ツー・エンドおよびリアルタイムの深層学習フレームワークであるFW-Netについて述べる。
本研究では,時間的連続性を効果的に学習することにより,実地真実のみを用いてリアルタイムにカテーテルを分割・追跡できることを示す。
論文 参考訳(メタデータ) (2020-06-16T12:53:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。