論文の概要: 2018 Robotic Scene Segmentation Challenge
- arxiv url: http://arxiv.org/abs/2001.11190v3
- Date: Mon, 3 Aug 2020 01:55:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 12:40:52.426916
- Title: 2018 Robotic Scene Segmentation Challenge
- Title(参考訳): 2018年ロボットシーンセグメンテーションチャレンジ
- Authors: Max Allan, Satoshi Kondo, Sebastian Bodenstedt, Stefan Leger, Rahim
Kadkhodamohammadi, Imanol Luengo, Felix Fuentes, Evangello Flouty, Ahmed
Mohammed, Marius Pedersen, Avinash Kori, Varghese Alex, Ganapathy
Krishnamurthi, David Rauber, Robert Mendel, Christoph Palm, Sophia Bano,
Guinther Saibro, Chi-Sheng Shih, Hsun-An Chiang, Juntang Zhuang, Junlin Yang,
Vladimir Iglovikov, Anton Dobrenkii, Madhu Reddiboina, Anubhav Reddy,
Xingtong Liu, Cong Gao, Mathias Unberath, Myeonghyeon Kim, Chanho Kim,
Chaewon Kim, Hyejin Kim, Gyeongmin Lee, Ihsan Ullah, Miguel Luna, Sang Hyun
Park, Mahdi Azizian, Danail Stoyanov, Lena Maier-Hein, Stefanie Speidel
- Abstract要約: 2015年、ミュンヘンのMICCAIで開催されたEndoVisワークショップで、ロボットの前方運動学とCADモデルから自動生成されるアノテーションを用いて、前立腺組織の内視鏡画像を使用したサブチャンジを開始した。
2017年、ケベックの同じワークショップで、ロボット機器のセグメンテーションデータセットを導入しました。
この課題には、現実的な楽器の動きと、より複雑なブタの組織が背景として含まれており、U-Netや他の一般的なCNNアーキテクチャの変更によって広く対処された。
2018年には、解剖学的オブジェクトのセットを導入して、複雑さを追加しました。
- 参考スコア(独自算出の注目度): 23.9689061521114
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In 2015 we began a sub-challenge at the EndoVis workshop at MICCAI in Munich
using endoscope images of ex-vivo tissue with automatically generated
annotations from robot forward kinematics and instrument CAD models. However,
the limited background variation and simple motion rendered the dataset
uninformative in learning about which techniques would be suitable for
segmentation in real surgery. In 2017, at the same workshop in Quebec we
introduced the robotic instrument segmentation dataset with 10 teams
participating in the challenge to perform binary, articulating parts and type
segmentation of da Vinci instruments. This challenge included realistic
instrument motion and more complex porcine tissue as background and was widely
addressed with modifications on U-Nets and other popular CNN architectures. In
2018 we added to the complexity by introducing a set of anatomical objects and
medical devices to the segmented classes. To avoid over-complicating the
challenge, we continued with porcine data which is dramatically simpler than
human tissue due to the lack of fatty tissue occluding many organs.
- Abstract(参考訳): 2015年、ミュンヘンのMICCAIで開催されたEndoVisワークショップで、ロボットの前方運動学とCADモデルから自動生成されるアノテーションを用いて、前立腺組織の内視鏡画像を使用したサブチャンジを開始した。
しかし、背景の変化や単純な動きの制限により、実際の手術でどのテクニックがセグメント化に適しているかを学ぶのに、データセットは非形式的になった。
2017年、ケベックで開催された同じワークショップで、10チームがダ・ヴィンチ・インスツルメンツのバイナリ、調音部品、タイプセグメンテーションを行うチャレンジに参加しているロボット楽器セグメンテーションデータセットを導入しました。
この課題は、現実的な楽器の動きとより複雑なブタの組織を背景としており、u-netや他の人気のあるcnnアーキテクチャの変更で広く対処された。
2018年には、セグメント化されたクラスに解剖学的オブジェクトと医療機器のセットを導入することで、複雑さを追加しました。
課題を過度に複雑化するのを避けるため,多くの臓器を包含する脂肪組織が欠如していることから,ヒトの組織よりも劇的にシンプルであるブタのデータを使い続けた。
関連論文リスト
- Vivim: a Video Vision Mamba for Medical Video Segmentation [52.11785024350253]
本稿では、医用ビデオセグメンテーションタスクのためのビデオビジョンマンバベースのフレームワークVivimを提案する。
我々のビビムは、長期表現を様々なスケールのシーケンスに効果的に圧縮することができる。
超音波検査では甲状腺分節,乳房病変分節,大腸内視鏡検査ではポリープ分節が有効で有効であった。
論文 参考訳(メタデータ) (2024-01-25T13:27:03Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Learning from partially labeled data for multi-organ and tumor
segmentation [102.55303521877933]
本稿では,トランスフォーマーに基づく動的オンデマンドネットワーク(TransDoDNet)を提案する。
動的ヘッドにより、ネットワークは複数のセグメンテーションタスクを柔軟に達成することができる。
我々はMOTSと呼ばれる大規模にラベル付けされたMulti-Organ and tumorベンチマークを作成し、他の競合相手よりもTransDoDNetの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-13T13:03:09Z) - Rethinking Surgical Instrument Segmentation: A Background Image Can Be
All You Need [18.830738606514736]
データ不足と不均衡はモデルの精度に大きな影響を与え、ディープラーニングベースの手術アプリケーションの設計と展開を制限してきた。
本稿では,ロボット手術によるデータ収集とアノテーションの複雑で高価なプロセスを排除する,1対多のデータ生成ソリューションを提案する。
経験的分析から,高コストなデータ収集とアノテーションがなければ,適切な手術器具のセグメンテーション性能が達成できることが示唆された。
論文 参考訳(メタデータ) (2022-06-23T16:22:56Z) - Segmenting Medical Instruments in Minimally Invasive Surgeries using
AttentionMask [66.63753229115983]
我々は,オブジェクト提案生成システムであるAttentionMaskに適応し,将来的な提案を選択するための専用の後処理を提案する。
ROBUST-MIS Challenge 2019の結果から,適応型 AttentionMask システムは最先端のパフォーマンスを実現するための強力な基盤であることがわかった。
論文 参考訳(メタデータ) (2022-03-21T21:37:56Z) - FUN-SIS: a Fully UNsupervised approach for Surgical Instrument
Segmentation [16.881624842773604]
FUN-SISについて述べる。
我々は、暗黙の動作情報と楽器形状に依存して、完全に装飾されていない内視鏡ビデオに基づいてフレーム単位のセグメンテーションモデルを訓練する。
手術器具のセグメンテーションの完全教師なしの結果は, 完全に監督された最先端のアプローチとほぼ同等である。
論文 参考訳(メタデータ) (2022-02-16T15:32:02Z) - Multimodal Semantic Scene Graphs for Holistic Modeling of Surgical
Procedures [70.69948035469467]
カメラビューから3Dグラフを生成するための最新のコンピュータビジョン手法を利用する。
次に,手術手順の象徴的,意味的表現を統一することを目的としたマルチモーダルセマンティックグラフシーン(MSSG)を紹介する。
論文 参考訳(メタデータ) (2021-06-09T14:35:44Z) - Generalized Organ Segmentation by Imitating One-shot Reasoning using
Anatomical Correlation [55.1248480381153]
そこで我々は,アノテーション付きオルガンクラスから一般化されたオルガン概念を学習し,その概念を未知のクラスに転送するOrganNetを提案する。
そこで,OrganNetは臓器形態の幅広い変化に効果的に抵抗でき,一発分節タスクで最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-30T13:41:12Z) - m2caiSeg: Semantic Segmentation of Laparoscopic Images using
Convolutional Neural Networks [4.926395463398194]
深層学習に基づくセマンティック・セマンティック・セマンティック・セマンティック・セマンティック・アルゴリズムを提案する。
実世界の外科手術の内視鏡的映像フィードから作成した注釈付きデータセットm2caiSegを提示する。
論文 参考訳(メタデータ) (2020-08-23T23:30:15Z) - Real-Time Instrument Segmentation in Robotic Surgery using Auxiliary
Supervised Deep Adversarial Learning [15.490603884631764]
ロボット機器と組織のリアルタイムセマンティックセグメンテーションは、ロボット支援手術において重要なステップである。
我々は,高解像度ビデオから手術器具を分割する軽量カスケード畳み込みニューラルネットワーク(CNN)を開発した。
高解像度ビデオの予測精度とセグメンテーション時間の両方において,術具の画素単位のセグメンテーションのための既存のアルゴリズムを超越していることを示す。
論文 参考訳(メタデータ) (2020-07-22T10:16:07Z) - Synthetic and Real Inputs for Tool Segmentation in Robotic Surgery [10.562627972607892]
腹腔鏡画像と組み合わせたロボットキネマティックデータを用いてラベル付け問題を緩和できる可能性が示唆された。
腹腔鏡画像とシミュレーション画像の並列処理のための新しい深層学習モデルを提案する。
論文 参考訳(メタデータ) (2020-07-17T16:33:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。