論文の概要: Learning Motion Flows for Semi-supervised Instrument Segmentation from
Robotic Surgical Video
- arxiv url: http://arxiv.org/abs/2007.02501v1
- Date: Mon, 6 Jul 2020 02:39:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 02:35:46.546383
- Title: Learning Motion Flows for Semi-supervised Instrument Segmentation from
Robotic Surgical Video
- Title(参考訳): ロボット手術映像からの半教師あり機器セグメンテーションのための運動流の学習
- Authors: Zixu Zhao, Yueming Jin, Xiaojie Gao, Qi Dou, Pheng-Ann Heng
- Abstract要約: 本研究は,スパースアノテーションを用いたロボット手術ビデオから半教師楽器のセグメンテーションについて検討する。
生成されたデータペアを利用することで、我々のフレームワークはトレーニングシーケンスの時間的一貫性を回復し、強化することができます。
その結果,本手法は最先端の半教師あり手法よりも大きなマージンで優れていることがわかった。
- 参考スコア(独自算出の注目度): 64.44583693846751
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Performing low hertz labeling for surgical videos at intervals can greatly
releases the burden of surgeons. In this paper, we study the semi-supervised
instrument segmentation from robotic surgical videos with sparse annotations.
Unlike most previous methods using unlabeled frames individually, we propose a
dual motion based method to wisely learn motion flows for segmentation
enhancement by leveraging temporal dynamics. We firstly design a flow predictor
to derive the motion for jointly propagating the frame-label pairs given the
current labeled frame. Considering the fast instrument motion, we further
introduce a flow compensator to estimate intermediate motion within continuous
frames, with a novel cycle learning strategy. By exploiting generated data
pairs, our framework can recover and even enhance temporal consistency of
training sequences to benefit segmentation. We validate our framework with
binary, part, and type tasks on 2017 MICCAI EndoVis Robotic Instrument
Segmentation Challenge dataset. Results show that our method outperforms the
state-of-the-art semi-supervised methods by a large margin, and even exceeds
fully supervised training on two tasks.
- Abstract(参考訳): 手術ビデオの低ヘルツラベリングを一定間隔で行うと、外科医の負担を大幅に軽減できる。
本稿では,スパースアノテーションを用いたロボット手術ビデオから半教師あり楽器のセグメンテーションについて検討する。
ラベル付きフレームを個別に使用する従来の方法とは異なり、時間的ダイナミクスを利用してセグメント化強化のための動作フローを賢く学習するデュアルモーションベース手法を提案する。
まず, 流れ予測器の設計を行い, 現行のラベル付きフレームに対して, フレームラベルペアを協調的に伝搬する動作を導出する。
さらに,高速な計測動作を考慮し,連続フレーム内の中間運動を推定するフロー補償器を,新しいサイクル学習戦略で導入する。
生成したデータペアを活用することで、トレーニングシーケンスの時間的一貫性を回復し、さらにはセグメンテーションの恩恵を受けることができます。
私たちは、2017 MICCAI EndoVis Robotic Instrument Segmentation Challengeデータセット上で、バイナリ、パート、タイプタスクでフレームワークを検証する。
その結果,本手法は最先端の半教師付き手法を高いマージンで上回り,さらに2つのタスクで完全に教師付きトレーニングを超越していることがわかった。
関連論文リスト
- WeakSurg: Weakly supervised surgical instrument segmentation using temporal equivariance and semantic continuity [14.448593791011204]
本稿では,楽器の有無ラベルのみを付与した手術器具セグメンテーションを提案する。
手術ビデオの時間的特性を考慮し,2段階の弱教師付きセグメンテーションパラダイムを拡張した。
1つの胆嚢摘出手術ベンチマークと1つの実際のロボット左外側肝外科手術データセットを含む2つの手術ビデオデータセットで実験が検証されている。
論文 参考訳(メタデータ) (2024-03-14T16:39:11Z) - Pseudo-label Guided Cross-video Pixel Contrast for Robotic Surgical
Scene Segmentation with Limited Annotations [72.15956198507281]
シーンセグメンテーションを促進するために,新しい擬似ラベル付きクロスビデオコントラスト学習法であるPGV-CLを提案する。
本研究では,ロボット外科手術データセットEndoVis18と白内障手術データセットCaDISについて検討した。
論文 参考訳(メタデータ) (2022-07-20T05:42:19Z) - FUN-SIS: a Fully UNsupervised approach for Surgical Instrument
Segmentation [16.881624842773604]
FUN-SISについて述べる。
我々は、暗黙の動作情報と楽器形状に依存して、完全に装飾されていない内視鏡ビデオに基づいてフレーム単位のセグメンテーションモデルを訓練する。
手術器具のセグメンテーションの完全教師なしの結果は, 完全に監督された最先端のアプローチとほぼ同等である。
論文 参考訳(メタデータ) (2022-02-16T15:32:02Z) - Efficient Global-Local Memory for Real-time Instrument Segmentation of
Robotic Surgical Video [53.14186293442669]
手術器具の知覚における重要な手がかりとして,隣接するフレームからの局所的時間依存性と,長距離における大域的意味的相関があげられる。
本稿では,グローバルとローカルの両方の時間的知識を関連付ける新しいデュアルメモリネットワーク(DMNet)を提案する。
本手法は,実時間速度を維持しながらセグメント化精度を向上する手法である。
論文 参考訳(メタデータ) (2021-09-28T10:10:14Z) - Self-supervised Video Object Segmentation by Motion Grouping [79.13206959575228]
動きの手がかりを利用して物体をセグメンテーションできるコンピュータビジョンシステムを開発した。
本稿では,光フローフレームを一次オブジェクトと背景に分割するトランスフォーマーの簡単なバリエーションを紹介する。
提案したアーキテクチャを公開ベンチマーク(DAVIS2016, SegTrackv2, FBMS59)で評価する。
論文 参考訳(メタデータ) (2021-04-15T17:59:32Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Unsupervised Surgical Instrument Segmentation via Anchor Generation and
Semantic Diffusion [17.59426327108382]
この論文では、より手頃な価格で教師なしのアプローチが開発されている。
2017年のMII EndoVis Robotic Instrument Challengeデータセットの実験では、単一の手動アノテーションを使わずに0.71 IoUと0.81 Diceスコアを達成した。
論文 参考訳(メタデータ) (2020-08-27T06:54:27Z) - Self-supervised Sparse to Dense Motion Segmentation [13.888344214818737]
単一ビデオフレームからスパース動作セグメントの密度化を学習するための自己教師付き手法を提案する。
FBMS59 と DAVIS16 でよく知られた動作セグメンテーションデータセットについて検討した。
論文 参考訳(メタデータ) (2020-08-18T11:40:18Z) - Motion-supervised Co-Part Segmentation [88.40393225577088]
本稿では,コパートセグメンテーションのための自己教師型ディープラーニング手法を提案する。
提案手法は,映像から推定される動き情報を有効活用して意味のある物体の発見を可能にする。
論文 参考訳(メタデータ) (2020-04-07T09:56:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。