論文の概要: ISINet: An Instance-Based Approach for Surgical Instrument Segmentation
- arxiv url: http://arxiv.org/abs/2007.05533v1
- Date: Fri, 10 Jul 2020 16:20:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 22:18:26.798277
- Title: ISINet: An Instance-Based Approach for Surgical Instrument Segmentation
- Title(参考訳): ISINet: 手術機器セグメンテーションのためのインスタンスベースのアプローチ
- Authors: Cristina Gonz\'alez (1), Laura Bravo-S\'anchez (1), Pablo Arbelaez (1)
((1) Center for Research and Formation in Artificial Intelligence,
Universidad de los Andes, Colombia)
- Abstract要約: ロボット支援手術シーンにおける手術器具の意味的セグメンテーションの課題について検討する。
我々は、インスタンスベースのセグメンテーションの観点から、このタスクに対処するISINetを提案する。
以上の結果から, ISINetは最先端の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the task of semantic segmentation of surgical instruments in
robotic-assisted surgery scenes. We propose the Instance-based Surgical
Instrument Segmentation Network (ISINet), a method that addresses this task
from an instance-based segmentation perspective. Our method includes a temporal
consistency module that takes into account the previously overlooked and
inherent temporal information of the problem. We validate our approach on the
existing benchmark for the task, the Endoscopic Vision 2017 Robotic Instrument
Segmentation Dataset, and on the 2018 version of the dataset, whose annotations
we extended for the fine-grained version of instrument segmentation. Our
results show that ISINet significantly outperforms state-of-the-art methods,
with our baseline version duplicating the Intersection over Union (IoU) of
previous methods and our complete model triplicating the IoU.
- Abstract(参考訳): ロボット支援手術シーンにおける手術器具の意味的セグメンテーションの課題について検討する。
本稿では,この課題をインスタンスベースセグメンテーションの観点から解決する手法として,インスタンスベースの手術機器セグメンテーションネットワーク(ISINet)を提案する。
本手法は,以前見過ごされていた問題の時間的情報を考慮した時間的一貫性モジュールを含む。
我々は,この課題に対する既存のベンチマーク,the endoscopic vision 2017 robot instrument segmentation dataset,および2018年版のinstrumental segmentation用アノテーションを拡張したthe datasetについて検証を行った。
以上の結果から,ISINetは従来手法のIoU(Intersection over Union)を重複させたベースラインバージョンと,IoUを3倍にした完全モデルで,最先端の手法よりも優れていたことが示唆された。
関連論文リスト
- LACOSTE: Exploiting stereo and temporal contexts for surgical instrument segmentation [14.152207010509763]
ステレオ画像とテンポラル画像の位置情報を併用した新しいLACOSTEモデルを提案し,手術器具のセグメンテーションを改善した。
我々は3つの公開手術ビデオデータセットに対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2024-09-14T08:17:56Z) - Amodal Segmentation for Laparoscopic Surgery Video Instruments [30.39518393494816]
医療分野における手術器具の領域にAmodalVisを導入する。
このテクニックは、オブジェクトの可視部と隠蔽部の両方を識別する。
これを実現するために,新しいAmoal Instrumentsデータセットを導入する。
論文 参考訳(メタデータ) (2024-08-02T07:40:34Z) - Pixel-Wise Recognition for Holistic Surgical Scene Understanding [31.338288460529046]
本稿では,前立腺腫 (GraSP) データセットについて述べる。
GraSPは、外科的シーン理解を、様々なレベルの粒度の相補的なタスクの階層としてモデル化した、キュレートされたベンチマークである。
本稿では,グローバルビデオ特徴抽出器と局所領域の提案を組み合わせた汎用アーキテクチャであるTransformers for Actions, Phases, Steps, and Instruments(TAPIS)モデルを紹介する。
論文 参考訳(メタデータ) (2024-01-20T09:09:52Z) - SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - From Forks to Forceps: A New Framework for Instance Segmentation of
Surgical Instruments [6.677634562400846]
最小侵襲手術と関連する応用は、インスタンスレベルでの外科的ツール分類とセグメンテーションを要求する。
本研究は,バウンディングボックスとセグメンテーションマスクが正確な場合が多いが,分類ヘッドが手術器具の分類ラベルを誤分類していることを示す。
我々は、既存のインスタンスセグメンテーションモデルに分類モジュールを新しいステージとして追加する新しいニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:26:42Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - TraSeTR: Track-to-Segment Transformer with Contrastive Query for
Instance-level Instrument Segmentation in Robotic Surgery [60.439434751619736]
そこで我々は,TraSeTRを提案する。TraSeTR,TraSeTR,Trace-to-Segment Transformerは,手術器具のセグメンテーションを支援する。
TraSeTRは、機器の種類、位置、アイデンティティとインスタンスレベルの予測を共同で理由付けている。
提案手法の有効性を,3つの公開データセットに対して,最先端の計器型セグメンテーション結果を用いて実証した。
論文 参考訳(メタデータ) (2022-02-17T05:52:18Z) - FUN-SIS: a Fully UNsupervised approach for Surgical Instrument
Segmentation [16.881624842773604]
FUN-SISについて述べる。
我々は、暗黙の動作情報と楽器形状に依存して、完全に装飾されていない内視鏡ビデオに基づいてフレーム単位のセグメンテーションモデルを訓練する。
手術器具のセグメンテーションの完全教師なしの結果は, 完全に監督された最先端のアプローチとほぼ同等である。
論文 参考訳(メタデータ) (2022-02-16T15:32:02Z) - Co-Generation and Segmentation for Generalized Surgical Instrument
Segmentation on Unlabelled Data [49.419268399590045]
正確な機器追跡と拡張現実オーバーレイには、ロボット支援手術のための外科用機器セグメンテーションが必要です。
深層学習法では手術器具のセグメンテーションに最先端のパフォーマンスが示されたが,結果はラベル付きデータに依存する。
本稿では,ロボットによる手術を含むさまざまなデータセット上で,これらの手法の限定的な一般化性を実証する。
論文 参考訳(メタデータ) (2021-03-16T18:41:18Z) - Learning Motion Flows for Semi-supervised Instrument Segmentation from
Robotic Surgical Video [64.44583693846751]
本研究は,スパースアノテーションを用いたロボット手術ビデオから半教師楽器のセグメンテーションについて検討する。
生成されたデータペアを利用することで、我々のフレームワークはトレーニングシーケンスの時間的一貫性を回復し、強化することができます。
その結果,本手法は最先端の半教師あり手法よりも大きなマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-06T02:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。