論文の概要: Co-Generation and Segmentation for Generalized Surgical Instrument
Segmentation on Unlabelled Data
- arxiv url: http://arxiv.org/abs/2103.09276v1
- Date: Tue, 16 Mar 2021 18:41:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-18 13:02:34.256533
- Title: Co-Generation and Segmentation for Generalized Surgical Instrument
Segmentation on Unlabelled Data
- Title(参考訳): 非ラベルデータを用いた一般化手術器具分割のためのコージェネレーションとセグメンテーション
- Authors: Megha Kalia, Tajwar Abrar Aleef, Nassir Navab, and Septimiu E.
Salcudean
- Abstract要約: 正確な機器追跡と拡張現実オーバーレイには、ロボット支援手術のための外科用機器セグメンテーションが必要です。
深層学習法では手術器具のセグメンテーションに最先端のパフォーマンスが示されたが,結果はラベル付きデータに依存する。
本稿では,ロボットによる手術を含むさまざまなデータセット上で,これらの手法の限定的な一般化性を実証する。
- 参考スコア(独自算出の注目度): 49.419268399590045
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Surgical instrument segmentation for robot-assisted surgery is needed for
accurate instrument tracking and augmented reality overlays. Therefore, the
topic has been the subject of a number of recent papers in the CAI community.
Deep learning-based methods have shown state-of-the-art performance for
surgical instrument segmentation, but their results depend on labelled data.
However, labelled surgical data is of limited availability and is a bottleneck
in surgical translation of these methods. In this paper, we demonstrate the
limited generalizability of these methods on different datasets, including
human robot-assisted surgeries. We then propose a novel joint generation and
segmentation strategy to learn a segmentation model with better generalization
capability to domains that have no labelled data. The method leverages the
availability of labelled data in a different domain. The generator does the
domain translation from the labelled domain to the unlabelled domain and
simultaneously, the segmentation model learns using the generated data while
regularizing the generative model. We compared our method with state-of-the-art
methods and showed its generalizability on publicly available datasets and on
our own recorded video frames from robot-assisted prostatectomies. Our method
shows consistently high mean Dice scores on both labelled and unlabelled
domains when data is available only for one of the domains.
*M. Kalia and T. Aleef contributed equally to the manuscript
- Abstract(参考訳): ロボット支援手術のための手術器具セグメンテーションは、正確な計器追跡と拡張現実オーバーレイのために必要である。
そのため、この話題はCAIコミュニティにおける最近の多くの論文の主題となっている。
深層学習法では手術器具のセグメンテーションに最先端のパフォーマンスが示されたが,結果はラベル付きデータに依存する。
しかし,ラベル付き手術データは有用性が低く,術中翻訳のボトルネックとなっている。
本稿では,ロボットによる手術を含むさまざまなデータセット上で,これらの手法の限定的な一般化性を実証する。
次に,ラベル付きデータを持たない領域に対して,よりよい一般化能力を持つセグメンテーションモデルを学ぶための新しいジョイント生成とセグメンテーション戦略を提案する。
この方法は異なるドメインにおけるラベル付きデータの可用性を活用する。
ジェネレータはラベル付きドメインからラベルなしドメインへのドメイン変換を行い、同時にセグメンテーションモデルが生成したデータを使用して生成モデルを正規化しながら学習する。
本手法を最先端手法と比較し,公開データセットと,ロボット支援プロスタクトミーによる自記録ビデオフレームの汎用性を示した。
提案手法では,ラベル付きドメインとラベル付きドメインの両方において,一方のドメインでのみデータを利用できる場合,平均diceスコアが一貫して高い値を示す。
※カリアとアレフは写本に等しく貢献した。
関連論文リスト
- Revisiting Surgical Instrument Segmentation Without Human Intervention: A Graph Partitioning View [7.594796294925481]
本稿では,ビデオフレーム分割をグラフ分割問題として再検討し,教師なしの手法を提案する。
自己教師付き事前学習モデルは、まず、高レベルな意味的特徴をキャプチャする特徴抽出器として活用される。
ディープ」固有ベクトルでは、手術用ビデオフレームは、ツールや組織などの異なるモジュールに意味的に分割され、区別可能な意味情報を提供する。
論文 参考訳(メタデータ) (2024-08-27T05:31:30Z) - AnatoMix: Anatomy-aware Data Augmentation for Multi-organ Segmentation [6.471203541258319]
本稿では,多臓器セグメンテーションデータセットの一般化性を高めるための新しいデータ拡張戦略を提案する。
オブジェクトレベルのマッチングと操作により,本手法は解剖学的に正しい画像を生成することができる。
拡張法は, ベースライン法74.8と比較して76.1ディスとなる。
論文 参考訳(メタデータ) (2024-03-05T21:07:50Z) - Cross-Dataset Adaptation for Instrument Classification in Cataract
Surgery Videos [54.1843419649895]
特定のデータセットでこのタスクをうまく実行する最先端モデルでは、別のデータセットでテストすると、パフォーマンスが低下する。
本稿では,Barlow Adaptorと呼ばれる新しいエンドツーエンドのUnsupervised Domain Adaptation (UDA)手法を提案する。
さらに,BFAL(Barlow Feature Alignment Loss)と呼ばれる,異なるドメインにまたがる特徴を整列させる新たな損失を導入する。
論文 参考訳(メタデータ) (2023-07-31T18:14:18Z) - Self-supervised Registration and Segmentation of the Ossicles with A
Single Ground Truth Label [1.6244541005112747]
本稿では,アトラスとターゲット画像の間の密度変形場を生成する,自己教師型3D-UNetを用いた新しい手法を提案する。
以上の結果から,本手法は従来の画像分割法より優れ,オシクルの周囲により正確な境界が生じることがわかった。
論文 参考訳(メタデータ) (2023-02-15T22:11:31Z) - PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training [52.895952593202054]
医用画像セグメンテーションのためのPatch Confidence Adrial Training (PCA) と呼ばれる半教師付き対向法を提案する。
PCAは各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得る。
本手法は, 医用画像のセグメンテーションにおいて, 最先端の半教師付き手法より優れており, その有効性を示している。
論文 参考訳(メタデータ) (2022-07-24T07:45:47Z) - Pseudo-label Guided Cross-video Pixel Contrast for Robotic Surgical
Scene Segmentation with Limited Annotations [72.15956198507281]
シーンセグメンテーションを促進するために,新しい擬似ラベル付きクロスビデオコントラスト学習法であるPGV-CLを提案する。
本研究では,ロボット外科手術データセットEndoVis18と白内障手術データセットCaDISについて検討した。
論文 参考訳(メタデータ) (2022-07-20T05:42:19Z) - TraSeTR: Track-to-Segment Transformer with Contrastive Query for
Instance-level Instrument Segmentation in Robotic Surgery [60.439434751619736]
そこで我々は,TraSeTRを提案する。TraSeTR,TraSeTR,Trace-to-Segment Transformerは,手術器具のセグメンテーションを支援する。
TraSeTRは、機器の種類、位置、アイデンティティとインスタンスレベルの予測を共同で理由付けている。
提案手法の有効性を,3つの公開データセットに対して,最先端の計器型セグメンテーション結果を用いて実証した。
論文 参考訳(メタデータ) (2022-02-17T05:52:18Z) - CvS: Classification via Segmentation For Small Datasets [52.821178654631254]
本稿では,分類ラベルをセグメントマップの予測から導出する小型データセットのコスト効率の高い分類器であるCvSを提案する。
我々は,CvSが従来の手法よりもはるかに高い分類結果が得られることを示す多種多様な問題に対して,本フレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2021-10-29T18:41:15Z) - Cross-Domain Segmentation with Adversarial Loss and Covariate Shift for
Biomedical Imaging [2.1204495827342438]
本論文は,異なるモダリティから異なるパターンと共有パターンをカプセル化することにより,ドメイン間データから堅牢な表現を学習できる新しいモデルの実現を目的とする。
正常な臨床試験で得られたCTおよびMRI肝データに対する試験は、提案したモデルが他のすべてのベースラインを大きなマージンで上回っていることを示している。
論文 参考訳(メタデータ) (2020-06-08T07:35:55Z) - Segmentation of Surgical Instruments for Minimally-Invasive
Robot-Assisted Procedures Using Generative Deep Neural Networks [17.571763112459166]
本研究は,極小侵襲手術器具のセマンティックセグメンテーションをトレーニングデータを用いて改善できることを証明した。
これを実現するために、ソースデータセットを変換してターゲットデータセットのドメイン分布を近似するCycleGANモデルを使用する。
完全ラベルを持つこの新たに生成されたデータは、セマンティックセグメンテーションニューラルネットワークであるU-Netのトレーニングに使用される。
論文 参考訳(メタデータ) (2020-06-05T14:39:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。