論文の概要: FUN-SIS: a Fully UNsupervised approach for Surgical Instrument
Segmentation
- arxiv url: http://arxiv.org/abs/2202.08141v1
- Date: Wed, 16 Feb 2022 15:32:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 18:02:37.686310
- Title: FUN-SIS: a Fully UNsupervised approach for Surgical Instrument
Segmentation
- Title(参考訳): FUN-SIS : 外科用機器セグメンテーションのための完全非教師的アプローチ
- Authors: Luca Sestini, Benoit Rosa, Elena De Momi, Giancarlo Ferrigno, Nicolas
Padoy
- Abstract要約: FUN-SISについて述べる。
我々は、暗黙の動作情報と楽器形状に依存して、完全に装飾されていない内視鏡ビデオに基づいてフレーム単位のセグメンテーションモデルを訓練する。
手術器具のセグメンテーションの完全教師なしの結果は, 完全に監督された最先端のアプローチとほぼ同等である。
- 参考スコア(独自算出の注目度): 16.881624842773604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic surgical instrument segmentation of endoscopic images is a crucial
building block of many computer-assistance applications for minimally invasive
surgery. So far, state-of-the-art approaches completely rely on the
availability of a ground-truth supervision signal, obtained via manual
annotation, thus expensive to collect at large scale. In this paper, we present
FUN-SIS, a Fully-UNsupervised approach for binary Surgical Instrument
Segmentation. FUN-SIS trains a per-frame segmentation model on completely
unlabelled endoscopic videos, by solely relying on implicit motion information
and instrument shape-priors. We define shape-priors as realistic segmentation
masks of the instruments, not necessarily coming from the same dataset/domain
as the videos. The shape-priors can be collected in various and convenient
ways, such as recycling existing annotations from other datasets. We leverage
them as part of a novel generative-adversarial approach, allowing to perform
unsupervised instrument segmentation of optical-flow images during training. We
then use the obtained instrument masks as pseudo-labels in order to train a
per-frame segmentation model; to this aim, we develop a
learning-from-noisy-labels architecture, designed to extract a clean
supervision signal from these pseudo-labels, leveraging their peculiar noise
properties. We validate the proposed contributions on three surgical datasets,
including the MICCAI 2017 EndoVis Robotic Instrument Segmentation Challenge
dataset. The obtained fully-unsupervised results for surgical instrument
segmentation are almost on par with the ones of fully-supervised
state-of-the-art approaches. This suggests the tremendous potential of the
proposed method to leverage the great amount of unlabelled data produced in the
context of minimally invasive surgery.
- Abstract(参考訳): 内視鏡画像の自動計測装置セグメンテーションは,低侵襲手術のための多くのコンピュータ・アシスト・アプリケーションにおいて重要なビルディングブロックである。
これまでのところ、最先端のアプローチは、手動のアノテーションによって得られる地上の真実の監視信号の可用性に完全に依存しているため、大規模な収集にはコストがかかる。
本稿では,二分法手術器具のセグメンテーションのための完全教師なしアプローチであるfun-sisを提案する。
FUN-SISは、暗黙のモーション情報と楽器の形状にのみ依存することで、フレーム単位のセグメンテーションモデルを、完全に折りたたみのない内視鏡ビデオで訓練する。
形状優先を楽器の現実的なセグメンテーションマスクと定義し、必ずしもビデオと同じデータセット/ドメインから来るとは限らない。
シェーププリアーは、他のデータセットから既存のアノテーションをリサイクルするなど、さまざまな便利な方法で収集することができる。
学習中に光学フロー画像の教師なしセグメンテーションを行えるように,新しい生成-敵アプローチの一部としてそれらを活用する。
そこで我々は,得られた楽器マスクを擬似ラベルとして,フレームごとのセグメンテーションモデルを訓練し,これらの擬似ラベルからクリーンな監視信号を抽出し,その特異なノイズ特性を生かして,ノイズから学習するシステムを開発した。
我々は,MICCAI 2017 EndoVis Robotic Instrument Segmentation Challengeデータセットを含む3つの外科的データセットに対する提案されたコントリビューションを検証する。
手術器具のセグメント化に関する全教師なしの結果は,全監督状態のアプローチとほぼ同等である。
このことは、最小侵襲手術の文脈で生成される大量の未ラベルデータを活用するための提案手法の膨大なポテンシャルを示唆している。
関連論文リスト
- AMNCutter: Affinity-Attention-Guided Multi-View Normalized Cutter for Unsupervised Surgical Instrument Segmentation [7.594796294925481]
我々は,Multi-View Normalized Cutter(m-NCutter)という新しいモジュールを特徴とするラベルフリーな教師なしモデルを提案する。
本モデルでは, パッチ親和性を利用したグラフカット損失関数を用いて, 疑似ラベルの不要化を図った。
我々は、複数のSISデータセットにわたる包括的な実験を行い、事前訓練されたモデルとして、アプローチの最先端(SOTA)パフォーマンス、堅牢性、および例外的なポテンシャルを検証する。
論文 参考訳(メタデータ) (2024-11-06T06:33:55Z) - Generalizing Segmentation Foundation Model Under Sim-to-real Domain-shift for Guidewire Segmentation in X-ray Fluoroscopy [1.4353812560047192]
Sim-to-real ドメイン適応アプローチは、コスト効率の良いソリューションを提供するシミュレーションから合成データを利用する。
対象領域のアノテーションを使わずに、SAMを蛍光X線ガイドワイヤセグメント化に適応させる戦略を提案する。
提案手法は、事前訓練されたSAMと、最先端のドメイン適応技術の両方を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2024-10-09T21:59:48Z) - Amodal Segmentation for Laparoscopic Surgery Video Instruments [30.39518393494816]
医療分野における手術器具の領域にAmodalVisを導入する。
このテクニックは、オブジェクトの可視部と隠蔽部の両方を識別する。
これを実現するために,新しいAmoal Instrumentsデータセットを導入する。
論文 参考訳(メタデータ) (2024-08-02T07:40:34Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - SAF-IS: a Spatial Annotation Free Framework for Instance Segmentation of
Surgical Tools [10.295921059528636]
トレーニングに空間アノテーションを頼らずに,実例分割のためのフレームワークを開発する。
我々のソリューションはバイナリツールマスクのみを必要とし、最新の教師なしアプローチとバイナリツール存在ラベルを使って取得できる。
当社のフレームワークは、2017年と2018年のセグメンテーションデータセット上で検証しています。
論文 参考訳(メタデータ) (2023-09-04T17:13:06Z) - Pseudo-label Guided Cross-video Pixel Contrast for Robotic Surgical
Scene Segmentation with Limited Annotations [72.15956198507281]
シーンセグメンテーションを促進するために,新しい擬似ラベル付きクロスビデオコントラスト学習法であるPGV-CLを提案する。
本研究では,ロボット外科手術データセットEndoVis18と白内障手術データセットCaDISについて検討した。
論文 参考訳(メタデータ) (2022-07-20T05:42:19Z) - TraSeTR: Track-to-Segment Transformer with Contrastive Query for
Instance-level Instrument Segmentation in Robotic Surgery [60.439434751619736]
そこで我々は,TraSeTRを提案する。TraSeTR,TraSeTR,Trace-to-Segment Transformerは,手術器具のセグメンテーションを支援する。
TraSeTRは、機器の種類、位置、アイデンティティとインスタンスレベルの予測を共同で理由付けている。
提案手法の有効性を,3つの公開データセットに対して,最先端の計器型セグメンテーション結果を用いて実証した。
論文 参考訳(メタデータ) (2022-02-17T05:52:18Z) - Co-Generation and Segmentation for Generalized Surgical Instrument
Segmentation on Unlabelled Data [49.419268399590045]
正確な機器追跡と拡張現実オーバーレイには、ロボット支援手術のための外科用機器セグメンテーションが必要です。
深層学習法では手術器具のセグメンテーションに最先端のパフォーマンスが示されたが,結果はラベル付きデータに依存する。
本稿では,ロボットによる手術を含むさまざまなデータセット上で,これらの手法の限定的な一般化性を実証する。
論文 参考訳(メタデータ) (2021-03-16T18:41:18Z) - Unsupervised Surgical Instrument Segmentation via Anchor Generation and
Semantic Diffusion [17.59426327108382]
この論文では、より手頃な価格で教師なしのアプローチが開発されている。
2017年のMII EndoVis Robotic Instrument Challengeデータセットの実験では、単一の手動アノテーションを使わずに0.71 IoUと0.81 Diceスコアを達成した。
論文 参考訳(メタデータ) (2020-08-27T06:54:27Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - Learning Motion Flows for Semi-supervised Instrument Segmentation from
Robotic Surgical Video [64.44583693846751]
本研究は,スパースアノテーションを用いたロボット手術ビデオから半教師楽器のセグメンテーションについて検討する。
生成されたデータペアを利用することで、我々のフレームワークはトレーニングシーケンスの時間的一貫性を回復し、強化することができます。
その結果,本手法は最先端の半教師あり手法よりも大きなマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-06T02:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。