論文の概要: Identifying Surgical Instruments in Laparoscopy Using Deep Learning Instance Segmentation
- arxiv url: http://arxiv.org/abs/2508.21399v1
- Date: Fri, 29 Aug 2025 08:15:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.963352
- Title: Identifying Surgical Instruments in Laparoscopy Using Deep Learning Instance Segmentation
- Title(参考訳): ディープラーニングインスタンスセグメンテーションを用いた腹腔鏡下手術器具の同定
- Authors: Sabrina Kletz, Klaus Schoeffmann, Jenny Benois-Pineau, Heinrich Husslein,
- Abstract要約: 腹腔鏡下婦人科ビデオにおける手術器具のセグメンテーションと認識について検討した。
領域ベースの完全畳み込みネットワークを用いて,手術器具のセグメント化性能を背景から評価した。
評価の結果,訓練例が適度に少ない場合でも,楽器領域の局所化と分割を極めて高い精度で行うことができることがわかった。
- 参考スコア(独自算出の注目度): 5.594717059891032
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recorded videos from surgeries have become an increasingly important information source for the field of medical endoscopy, since the recorded footage shows every single detail of the surgery. However, while video recording is straightforward these days, automatic content indexing - the basis for content-based search in a medical video archive - is still a great challenge due to the very special video content. In this work, we investigate segmentation and recognition of surgical instruments in videos recorded from laparoscopic gynecology. More precisely, we evaluate the achievable performance of segmenting surgical instruments from their background by using a region-based fully convolutional network for instance-aware (1) instrument segmentation as well as (2) instrument recognition. While the first part addresses only binary segmentation of instances (i.e., distinguishing between instrument or background) we also investigate multi-class instrument recognition (i.e., identifying the type of instrument). Our evaluation results show that even with a moderately low number of training examples, we are able to localize and segment instrument regions with a pretty high accuracy. However, the results also reveal that determining the particular instrument is still very challenging, due to the inherently high similarity of surgical instruments.
- Abstract(参考訳): 外科手術で撮影したビデオは、手術のあらゆる詳細が記録されているので、内視鏡検査の分野ではますます重要な情報源になっている。
しかし、近年はビデオ録画が簡単になっているが、医療用ビデオアーカイブにおけるコンテンツベースの検索基盤である自動コンテンツインデックス化は、非常に特殊なビデオコンテンツのために依然として大きな課題である。
本研究では,腹腔鏡下婦人科ビデオにおける手術器具の分類と認識について検討する。
より正確には,(1)楽器のセグメンテーションと(2)楽器認識のための領域ベースの完全畳み込みネットワークを用いて,手術器具のセグメンテーション性能を背景から評価する。
第1部は、インスタンスのバイナリセグメンテーション(楽器またはバックグラウンドの区別)のみに対処する一方で、マルチクラスの楽器認識(楽器の種類を特定する)についても調査する。
評価の結果,訓練例が適度に少ない場合でも,楽器領域の局所化と分割を極めて高い精度で行うことができることがわかった。
しかし, 手術器具の類似性が高いため, 特定機器の判定は依然として極めて困難であることが判明した。
関連論文リスト
- ToolTipNet: A Segmentation-Driven Deep Learning Baseline for Surgical Instrument Tip Detection [15.249490007192964]
ロボットによる根治的前立腺切除術では,超音波フレームを腹腔鏡カメラフレームに登録することが重要である。
長年の制限は、da Vinci APIから得られる楽器の先端位置が不正確であり、手眼の校正を必要とすることである。
そこで我々は,パートレベルの楽器セグメンテーションマスクを入力として,手術器具を用いたチップ検出手法を提案する。
論文 参考訳(メタデータ) (2025-04-13T19:27:03Z) - Amodal Segmentation for Laparoscopic Surgery Video Instruments [30.39518393494816]
医療分野における手術器具の領域にAmodalVisを導入する。
このテクニックは、オブジェクトの可視部と隠蔽部の両方を識別する。
これを実現するために,新しいAmoal Instrumentsデータセットを導入する。
論文 参考訳(メタデータ) (2024-08-02T07:40:34Z) - SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - SurgicalPart-SAM: Part-to-Whole Collaborative Prompting for Surgical Instrument Segmentation [66.21356751558011]
Segment Anything Model (SAM)は、ジェネリックオブジェクトセグメンテーションの約束を示し、様々なアプリケーションに可能性を提供します。
既存の方法では、SAMベースのフレームワークを手術データにチューニングすることで、手術器具セグメンテーション(SIS)にSAMを適用している。
本稿では,楽器構造知識をSAMの汎用知識と明確に統合する新しいSAM効率的なチューニング手法であるStuial Part-SAMを提案する。
論文 参考訳(メタデータ) (2023-12-22T07:17:51Z) - Visual-Kinematics Graph Learning for Procedure-agnostic Instrument Tip
Segmentation in Robotic Surgeries [29.201385352740555]
そこで我々は,様々な外科手術を施した楽器の先端を正確に分類する新しいビジュアル・キネマティクスグラフ学習フレームワークを提案する。
具体的には、画像とキネマティクスの両方から楽器部品のリレーショナル特徴を符号化するグラフ学習フレームワークを提案する。
クロスモーダル・コントラッシブ・ロスは、キネマティクスからチップセグメンテーションのイメージへの頑健な幾何学的先行を組み込むように設計されている。
論文 参考訳(メタデータ) (2023-09-02T14:52:58Z) - Video-Instrument Synergistic Network for Referring Video Instrument
Segmentation in Robotic Surgery [29.72271827272853]
本研究は,手術用ビデオ機器(RSVIS)の新たな課題を探求する。
与えられた言語表現に基づいて対応する手術器具を自動的に識別・分節することを目的としている。
我々は,ビデオレベルと楽器レベルの両方の知識を学習し,性能を向上させるために,ビデオ機器合成ネットワーク(VIS-Net)を考案した。
論文 参考訳(メタデータ) (2023-08-18T11:24:06Z) - Methods and datasets for segmentation of minimally invasive surgical
instruments in endoscopic images and videos: A review of the state of the art [0.0]
手法開発と評価に使用されるデータセットを特定し,特徴付ける。
この論文は、楽器に付着した種類のマーカーを使わずに、純粋に視覚的に機能する手法に焦点を当てている。
レビューされた文献の議論は、既存の欠点を浮き彫りにし、将来の発展の可能性を強調するものである。
論文 参考訳(メタデータ) (2023-04-25T17:38:41Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - TraSeTR: Track-to-Segment Transformer with Contrastive Query for
Instance-level Instrument Segmentation in Robotic Surgery [60.439434751619736]
そこで我々は,TraSeTRを提案する。TraSeTR,TraSeTR,Trace-to-Segment Transformerは,手術器具のセグメンテーションを支援する。
TraSeTRは、機器の種類、位置、アイデンティティとインスタンスレベルの予測を共同で理由付けている。
提案手法の有効性を,3つの公開データセットに対して,最先端の計器型セグメンテーション結果を用いて実証した。
論文 参考訳(メタデータ) (2022-02-17T05:52:18Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。