論文の概要: Methods and datasets for segmentation of minimally invasive surgical
instruments in endoscopic images and videos: A review of the state of the art
- arxiv url: http://arxiv.org/abs/2304.13014v3
- Date: Tue, 9 Jan 2024 21:52:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 17:55:52.048087
- Title: Methods and datasets for segmentation of minimally invasive surgical
instruments in endoscopic images and videos: A review of the state of the art
- Title(参考訳): 内視鏡画像とビデオにおける最小侵襲手術器具の分節化のための方法とデータセット:術法の現状について
- Authors: Tobias Rueckert (1), Daniel Rueckert (2 and 3), Christoph Palm (1 and
4) ((1) Regensburg Medical Image Computing (ReMIC), Ostbayerische Technische
Hochschule Regensburg (OTH Regensburg), Germany, (2) Artificial Intelligence
in Healthcare and Medicine, Klinikum rechts der Isar, Technical University of
Munich, Germany, (3) Department of Computing, Imperial College London, UK,
(4) Regensburg Center of Health Sciences and Technology (RCHST), OTH
Regensburg, Germany)
- Abstract要約: 手法開発と評価に使用されるデータセットを特定し,特徴付ける。
この論文は、楽器に付着した種類のマーカーを使わずに、純粋に視覚的に機能する手法に焦点を当てている。
レビューされた文献の議論は、既存の欠点を浮き彫りにし、将来の発展の可能性を強調するものである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the field of computer- and robot-assisted minimally invasive surgery,
enormous progress has been made in recent years based on the recognition of
surgical instruments in endoscopic images and videos. In particular, the
determination of the position and type of instruments is of great interest.
Current work involves both spatial and temporal information, with the idea that
predicting the movement of surgical tools over time may improve the quality of
the final segmentations. The provision of publicly available datasets has
recently encouraged the development of new methods, mainly based on deep
learning. In this review, we identify and characterize datasets used for method
development and evaluation and quantify their frequency of use in the
literature. We further present an overview of the current state of research
regarding the segmentation and tracking of minimally invasive surgical
instruments in endoscopic images and videos. The paper focuses on methods that
work purely visually, without markers of any kind attached to the instruments,
considering both single-frame semantic and instance segmentation approaches, as
well as those that incorporate temporal information. The publications analyzed
were identified through the platforms Google Scholar, Web of Science, and
PubMed. The search terms used were "instrument segmentation", "instrument
tracking", "surgical tool segmentation", and "surgical tool tracking",
resulting in a total of 741 articles published between 01/2015 and 07/2023, of
which 123 were included using systematic selection criteria. A discussion of
the reviewed literature is provided, highlighting existing shortcomings and
emphasizing the available potential for future developments.
- Abstract(参考訳): コンピュータ・ロボット支援の低侵襲手術の分野では,内視鏡的画像・映像における手術器具の認識により,近年,大きな進歩を遂げている。
特に、楽器の位置や種類の決定は、非常に興味深い。
現在の作業には空間的情報と時間的情報の両方が含まれており、手術用具の経時的移動を予測することは最終分節の質を改善するかもしれないという考えがある。
公開データセットの提供は、最近、主にディープラーニングに基づく新しい手法の開発を奨励している。
本稿では,本論文において,手法開発と評価に使用されるデータセットを特定し,その頻度を定量化する。
さらに,内視鏡的画像と映像における低侵襲手術器具のセグメンテーションと追跡に関する研究の現状について概説する。
本論文は,単一フレームのセマンティクスとインスタンスセグメンテーションの両アプローチ,時間情報を含む手法を考慮し,楽器に付着する種類のマーカーを使わずに,純粋に視覚的に機能する手法に焦点を当てる。
分析された出版物は、Google Scholar、Web of Science、PubMedのプラットフォームで識別された。
検索語は「インストラメントセグメンテーション」、「インストラメントトラッキング」、「サージカルツールセグメンテーション」、「サージカルツールトラッキング」であり、その結果、01/2015から07/2023の間に合計で741の論文が発行され、そのうち123は体系的選択基準で含まれていた。
レビューされた文献に関する議論が提供され、既存の欠点と将来の発展の可能性を強調している。
関連論文リスト
- Amodal Segmentation for Laparoscopic Surgery Video Instruments [30.39518393494816]
医療分野における手術器具の領域にAmodalVisを導入する。
このテクニックは、オブジェクトの可視部と隠蔽部の両方を識別する。
これを実現するために,新しいAmoal Instrumentsデータセットを導入する。
論文 参考訳(メタデータ) (2024-08-02T07:40:34Z) - Exploring Optical Flow Inclusion into nnU-Net Framework for Surgical Instrument Segmentation [1.3444601218847545]
nnU-Netフレームワークは、時間情報なしで単一のフレームを分析するセマンティックセグメンテーションに優れていた。
オプティカルフロー(OF)は、ビデオタスクでよく使われるツールで、動きを推定し、時間情報を含む単一のフレームで表現する。
本研究は,nU-Netアーキテクチャに付加的な入力として,オペレーショナル・インスツルメンテーション・セグメンテーション・タスクの性能向上を目的としている。
論文 参考訳(メタデータ) (2024-03-15T11:36:26Z) - SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - Visual-Kinematics Graph Learning for Procedure-agnostic Instrument Tip
Segmentation in Robotic Surgeries [29.201385352740555]
そこで我々は,様々な外科手術を施した楽器の先端を正確に分類する新しいビジュアル・キネマティクスグラフ学習フレームワークを提案する。
具体的には、画像とキネマティクスの両方から楽器部品のリレーショナル特徴を符号化するグラフ学習フレームワークを提案する。
クロスモーダル・コントラッシブ・ロスは、キネマティクスからチップセグメンテーションのイメージへの頑健な幾何学的先行を組み込むように設計されている。
論文 参考訳(メタデータ) (2023-09-02T14:52:58Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Computer Vision on X-ray Data in Industrial Production and Security
Applications: A survey [89.45221564651145]
本稿では,コンピュータビジョンと機械学習を用いた産業生産およびセキュリティアプリケーションにおけるX線分析に関する最近の研究をレビューする。
公開されているデータセット上でのアプリケーション、テクニック、評価メトリクス、データセット、それらのテクニックのパフォーマンス比較をカバーしている。
論文 参考訳(メタデータ) (2022-11-10T13:37:36Z) - Co-Generation and Segmentation for Generalized Surgical Instrument
Segmentation on Unlabelled Data [49.419268399590045]
正確な機器追跡と拡張現実オーバーレイには、ロボット支援手術のための外科用機器セグメンテーションが必要です。
深層学習法では手術器具のセグメンテーションに最先端のパフォーマンスが示されたが,結果はラベル付きデータに依存する。
本稿では,ロボットによる手術を含むさまざまなデータセット上で,これらの手法の限定的な一般化性を実証する。
論文 参考訳(メタデータ) (2021-03-16T18:41:18Z) - Gesture Recognition in Robotic Surgery: a Review [16.322875532481326]
本稿では,ロボット手術におけるきめ細かいジェスチャーの自動認識技術について概説する。
研究分野は急速に拡大しており、記事の大半は過去4年間に掲載されている。
論文 参考訳(メタデータ) (2021-01-29T19:13:13Z) - A survey on shape-constraint deep learning for medical image
segmentation [0.46023882211671957]
畳み込みニューラルネットワークとその多くのバリエーションは、ディープラーニングベースの医療画像セグメンテーションの現代の風景を完全に変えました。
これらの手法のピクセルレベルの分類と回帰に対する過度の依存は、問題として早期に特定されている。
セグメンテーション結果が解剖学的に一貫性があることを確認するために、マルコフ/条件付きランダムフィールドに基づくアプローチは、統計的シェイプモデルがますます普及しています。
論文 参考訳(メタデータ) (2021-01-19T16:52:10Z) - Medical Instrument Detection in Ultrasound-Guided Interventions: A
Review [74.22397862400177]
本稿では,超音波ガイド下手術における医療機器検出法について概説する。
まず,従来の非データ駆動手法とデータ駆動手法を含む計器検出手法について概説する。
本研究は, 麻酔, 生検, 前立腺切断療法, 心臓カテーテル治療など, 超音波における医療機器検出の主な臨床応用について論じる。
論文 参考訳(メタデータ) (2020-07-09T13:50:18Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。