論文の概要: TraSeTR: Track-to-Segment Transformer with Contrastive Query for
Instance-level Instrument Segmentation in Robotic Surgery
- arxiv url: http://arxiv.org/abs/2202.08453v1
- Date: Thu, 17 Feb 2022 05:52:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 15:19:16.433571
- Title: TraSeTR: Track-to-Segment Transformer with Contrastive Query for
Instance-level Instrument Segmentation in Robotic Surgery
- Title(参考訳): TraSeTR:ロボット手術におけるインスタンスレベルの機器分割のためのコントラストクエリ付きトラック・ツー・セグメンテーション・トランス
- Authors: Zixu Zhao, Yueming Jin, Pheng-Ann Heng
- Abstract要約: そこで我々は,TraSeTRを提案する。TraSeTR,TraSeTR,Trace-to-Segment Transformerは,手術器具のセグメンテーションを支援する。
TraSeTRは、機器の種類、位置、アイデンティティとインスタンスレベルの予測を共同で理由付けている。
提案手法の有効性を,3つの公開データセットに対して,最先端の計器型セグメンテーション結果を用いて実証した。
- 参考スコア(独自算出の注目度): 60.439434751619736
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Surgical instrument segmentation -- in general a pixel classification task --
is fundamentally crucial for promoting cognitive intelligence in robot-assisted
surgery (RAS). However, previous methods are struggling with discriminating
instrument types and instances. To address the above issues, we explore a mask
classification paradigm that produces per-segment predictions. We propose
TraSeTR, a novel Track-to-Segment Transformer that wisely exploits tracking
cues to assist surgical instrument segmentation. TraSeTR jointly reasons about
the instrument type, location, and identity with instance-level predictions
i.e., a set of class-bbox-mask pairs, by decoding query embeddings.
Specifically, we introduce the prior query that encoded with previous temporal
knowledge, to transfer tracking signals to current instances via identity
matching. A contrastive query learning strategy is further applied to reshape
the query feature space, which greatly alleviates the tracking difficulty
caused by large temporal variations. The effectiveness of our method is
demonstrated with state-of-the-art instrument type segmentation results on
three public datasets, including two RAS benchmarks from EndoVis Challenges and
one cataract surgery dataset CaDIS.
- Abstract(参考訳): 手術器具のセグメンテーション - 一般にピクセル分類タスク - は、ロボット支援手術(ras)における認知知能の促進に不可欠である。
しかし,従来手法では楽器の種類や事例の識別に苦慮していた。
上記の問題に対処するため,我々は,セグメント毎に予測を行うマスク分類パラダイムを検討する。
そこで本研究では,手術器具のセグメンテーションを支援するために,追跡手がかりを巧みに活用する新しいトラックツーセグメンテーショントランスフォーマであるtrasetrを提案する。
TraSeTRは、クエリの埋め込みをデコードすることで、インスツルメンタタイプ、ロケーション、アイデンティティとインスタンスレベルの予測、すなわちクラス-ボックス-マスクペアのセットを併用する。
具体的には、過去の時間的知識をエンコードした先行クエリを導入し、アイデンティティマッチングを通じて現在のインスタンスに追跡信号を転送する。
対照的なクエリ学習戦略は、クエリ特徴空間を再形成するためにさらに適用され、大きな時間的変動に起因する追跡困難を大幅に軽減する。
本手法の有効性は,EndoVis ChallengesのRASベンチマークと1つの白内障手術データセットCaDISを含む3つの公開データセットに対して,最先端の計器型セグメンテーション結果を用いて実証した。
関連論文リスト
- SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - PWISeg: Point-based Weakly-supervised Instance Segmentation for Surgical
Instruments [27.89003436883652]
我々はPWISeg (Point-based Weakly-supervised Instance) という,弱制御型手術器具セグメンテーション手法を提案する。
PWISegは、特徴点とバウンディングボックスの関係をモデル化するために、ポイント・ツー・ボックスとポイント・ツー・マスクのブランチを備えたFCNベースのアーキテクチャを採用している。
そこで本研究では,キー・ツー・マスク・ブランチを駆動し,より正確なセグメンテーション予測を生成するキー・ピクセル・アソシエーション・ロスとキー・ピクセル・アソシエーション・ロスを提案する。
論文 参考訳(メタデータ) (2023-11-16T11:48:29Z) - SegMatch: A semi-supervised learning method for surgical instrument
segmentation [10.223709180135419]
腹腔鏡およびロボット手術画像に対する高価なアノテーションの必要性を低減するための半教師付き学習法であるSegMatchを提案する。
SegMatchは、一貫性の正規化と擬似ラベリングを組み合わせた、広範な半教師付き分類パイプラインであるFixMatch上に構築されている。
この結果から,学習目的に非競合データを追加することで,完全教師付きアプローチの性能を超越できることが示唆された。
論文 参考訳(メタデータ) (2023-08-09T21:30:18Z) - Transforming the Interactive Segmentation for Medical Imaging [34.57242805353604]
本研究の目的は,人間のパフォーマンスに遅れる難易度の高い構造物の自動セグメンテーションをインタラクティブに洗練することである。
対話型(TIS)のための新しいトランスフォーマーアーキテクチャを提案する。
提案アーキテクチャはトランスフォーマーデコーダの変種で構成されており,アテンション機構と機能比較を自然に行う。
論文 参考訳(メタデータ) (2022-08-20T03:28:23Z) - SegmentMeIfYouCan: A Benchmark for Anomaly Segmentation [111.61261419566908]
ディープニューラルネットワーク(DNN)は通常、閉集合のセマンティッククラスで訓練される。
未発見のオブジェクトを扱うには不備だ。
このような物体の検出と局在化は、自動運転の認識などの安全クリティカルなアプリケーションに不可欠です。
論文 参考訳(メタデータ) (2021-04-30T07:58:19Z) - Co-Generation and Segmentation for Generalized Surgical Instrument
Segmentation on Unlabelled Data [49.419268399590045]
正確な機器追跡と拡張現実オーバーレイには、ロボット支援手術のための外科用機器セグメンテーションが必要です。
深層学習法では手術器具のセグメンテーションに最先端のパフォーマンスが示されたが,結果はラベル付きデータに依存する。
本稿では,ロボットによる手術を含むさまざまなデータセット上で,これらの手法の限定的な一般化性を実証する。
論文 参考訳(メタデータ) (2021-03-16T18:41:18Z) - NINEPINS: Nuclei Instance Segmentation with Point Annotations [2.19221864553448]
本稿では,ポイントアノテーションから自動生成される擬似ラベルセグメンテーションを用いたサンプルセグメンテーションのアルゴリズムを提案する。
生成されたセグメンテーションマスクを用いて、提案手法は、インスタンスセグメンテーションを実現するために、HoVer-Netモデルの修正版を訓練する。
実験結果から,提案手法はポイントアノテーションの不正確性に対して頑健であり,完全注釈付きインスタンスマスクを用いたHover-Netと比較すると,セグメンテーション性能の劣化が必ずしも組織分類などの高次タスクの劣化を意味するとは限らないことが示唆された。
論文 参考訳(メタデータ) (2020-06-24T08:28:52Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z) - VerSe: A Vertebrae Labelling and Segmentation Benchmark for
Multi-detector CT Images [121.31355003451152]
大規模Vertebrae Challenge(VerSe)は、2019年と2020年に開催されたMICCAI(International Conference on Medical Image Computing and Computer Assisted Intervention)と共同で設立された。
本評価の結果を報告するとともに,脊椎レベル,スキャンレベル,および異なる視野での性能変化について検討した。
論文 参考訳(メタデータ) (2020-01-24T21:09:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。