論文の概要: Amodal Segmentation for Laparoscopic Surgery Video Instruments
- arxiv url: http://arxiv.org/abs/2408.01067v1
- Date: Fri, 2 Aug 2024 07:40:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-05 14:17:04.736910
- Title: Amodal Segmentation for Laparoscopic Surgery Video Instruments
- Title(参考訳): 腹腔鏡下手術用ビデオ機器のアモーダルセグメンテーション
- Authors: Ruohua Shi, Zhaochen Liu, Lingyu Duan, Tingting Jiang,
- Abstract要約: 医療分野における手術器具の領域にAmodalVisを導入する。
このテクニックは、オブジェクトの可視部と隠蔽部の両方を識別する。
これを実現するために,新しいAmoal Instrumentsデータセットを導入する。
- 参考スコア(独自算出の注目度): 30.39518393494816
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Segmentation of surgical instruments is crucial for enhancing surgeon performance and ensuring patient safety. Conventional techniques such as binary, semantic, and instance segmentation share a common drawback: they do not accommodate the parts of instruments obscured by tissues or other instruments. Precisely predicting the full extent of these occluded instruments can significantly improve laparoscopic surgeries by providing critical guidance during operations and assisting in the analysis of potential surgical errors, as well as serving educational purposes. In this paper, we introduce Amodal Segmentation to the realm of surgical instruments in the medical field. This technique identifies both the visible and occluded parts of an object. To achieve this, we introduce a new Amoal Instruments Segmentation (AIS) dataset, which was developed by reannotating each instrument with its complete mask, utilizing the 2017 MICCAI EndoVis Robotic Instrument Segmentation Challenge dataset. Additionally, we evaluate several leading amodal segmentation methods to establish a benchmark for this new dataset.
- Abstract(参考訳): 手術器具の分節化は, 外科的パフォーマンスの向上と患者の安全確保に不可欠である。
バイナリ、セマンティック、インスタンスセグメンテーションといった従来のテクニックは共通の欠点を共有している。
これらの閉塞楽器の完全な範囲を正確に予測することは、手術中に重要なガイダンスを提供し、潜在的な外科的誤りの分析を支援し、教育目的に役立てることによって、腹腔鏡下手術を著しく改善することができる。
本稿では,医療分野における外科器具の領域にアモーダルセグメンテーションを導入する。
このテクニックは、オブジェクトの可視部と隠蔽部の両方を識別する。
これを実現するために、2017 MICCAI EndoVis Robotic Instrument Segmentation Challengeデータセットを用いて、各機器に完全なマスクを付加することで、新しいAmoal Instruments Segmentation(AIS)データセットを導入する。
さらに、この新たなデータセットのベンチマークを確立するために、いくつかの主要なアモーダルセグメンテーション手法を評価する。
関連論文リスト
- ASI-Seg: Audio-Driven Surgical Instrument Segmentation with Surgeon Intention Understanding [9.751642361457309]
そこで我々は,ASI-Segという音声駆動型手術器具分割フレームワークを提案し,必要な手術器具を正確に分割する。
本稿では,音声コマンドからセグメント化意図を解釈し,関連する楽器の詳細を検索するために,意図指向のマルチモーダル融合を提案する。
我々のASI-Segフレームワークは、意味的セグメンテーションと意図的セグメンテーションの両方において、古典的な最先端および医学的なSAMに対して顕著な優位性を示す。
論文 参考訳(メタデータ) (2024-07-28T09:25:59Z) - SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - SurgicalPart-SAM: Part-to-Whole Collaborative Prompting for Surgical Instrument Segmentation [66.21356751558011]
Segment Anything Model (SAM)は、ジェネリックオブジェクトセグメンテーションの約束を示し、様々なアプリケーションに可能性を提供します。
既存の方法では、SAMベースのフレームワークを手術データにチューニングすることで、手術器具セグメンテーション(SIS)にSAMを適用している。
本稿では,楽器構造知識をSAMの汎用知識と明確に統合する新しいSAM効率的なチューニング手法であるStuial Part-SAMを提案する。
論文 参考訳(メタデータ) (2023-12-22T07:17:51Z) - Video-Instrument Synergistic Network for Referring Video Instrument
Segmentation in Robotic Surgery [29.72271827272853]
本研究は,手術用ビデオ機器(RSVIS)の新たな課題を探求する。
与えられた言語表現に基づいて対応する手術器具を自動的に識別・分節することを目的としている。
我々は,ビデオレベルと楽器レベルの両方の知識を学習し,性能を向上させるために,ビデオ機器合成ネットワーク(VIS-Net)を考案した。
論文 参考訳(メタデータ) (2023-08-18T11:24:06Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Segmenting Medical Instruments in Minimally Invasive Surgeries using
AttentionMask [66.63753229115983]
我々は,オブジェクト提案生成システムであるAttentionMaskに適応し,将来的な提案を選択するための専用の後処理を提案する。
ROBUST-MIS Challenge 2019の結果から,適応型 AttentionMask システムは最先端のパフォーマンスを実現するための強力な基盤であることがわかった。
論文 参考訳(メタデータ) (2022-03-21T21:37:56Z) - TraSeTR: Track-to-Segment Transformer with Contrastive Query for
Instance-level Instrument Segmentation in Robotic Surgery [60.439434751619736]
そこで我々は,TraSeTRを提案する。TraSeTR,TraSeTR,Trace-to-Segment Transformerは,手術器具のセグメンテーションを支援する。
TraSeTRは、機器の種類、位置、アイデンティティとインスタンスレベルの予測を共同で理由付けている。
提案手法の有効性を,3つの公開データセットに対して,最先端の計器型セグメンテーション結果を用いて実証した。
論文 参考訳(メタデータ) (2022-02-17T05:52:18Z) - FUN-SIS: a Fully UNsupervised approach for Surgical Instrument
Segmentation [16.881624842773604]
FUN-SISについて述べる。
我々は、暗黙の動作情報と楽器形状に依存して、完全に装飾されていない内視鏡ビデオに基づいてフレーム単位のセグメンテーションモデルを訓練する。
手術器具のセグメンテーションの完全教師なしの結果は, 完全に監督された最先端のアプローチとほぼ同等である。
論文 参考訳(メタデータ) (2022-02-16T15:32:02Z) - Unsupervised Surgical Instrument Segmentation via Anchor Generation and
Semantic Diffusion [17.59426327108382]
この論文では、より手頃な価格で教師なしのアプローチが開発されている。
2017年のMII EndoVis Robotic Instrument Challengeデータセットの実験では、単一の手動アノテーションを使わずに0.71 IoUと0.81 Diceスコアを達成した。
論文 参考訳(メタデータ) (2020-08-27T06:54:27Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。