論文の概要: m2caiSeg: Semantic Segmentation of Laparoscopic Images using
Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2008.10134v2
- Date: Thu, 10 Dec 2020 21:34:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 02:37:34.859441
- Title: m2caiSeg: Semantic Segmentation of Laparoscopic Images using
Convolutional Neural Networks
- Title(参考訳): m2caiseg:畳み込みニューラルネットワークを用いた腹腔鏡像のセグメンテーション
- Authors: Salman Maqbool, Aqsa Riaz, Hasan Sajid, Osman Hasan
- Abstract要約: 深層学習に基づくセマンティック・セマンティック・セマンティック・セマンティック・セマンティック・アルゴリズムを提案する。
実世界の外科手術の内視鏡的映像フィードから作成した注釈付きデータセットm2caiSegを提示する。
- 参考スコア(独自算出の注目度): 4.926395463398194
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Autonomous surgical procedures, in particular minimal invasive surgeries, are
the next frontier for Artificial Intelligence research. However, the existing
challenges include precise identification of the human anatomy and the surgical
settings, and modeling the environment for training of an autonomous agent. To
address the identification of human anatomy and the surgical settings, we
propose a deep learning based semantic segmentation algorithm to identify and
label the tissues and organs in the endoscopic video feed of the human torso
region. We present an annotated dataset, m2caiSeg, created from endoscopic
video feeds of real-world surgical procedures. Overall, the data consists of
307 images, each of which is annotated for the organs and different surgical
instruments present in the scene. We propose and train a deep convolutional
neural network for the semantic segmentation task. To cater for the low
quantity of annotated data, we use unsupervised pre-training and data
augmentation. The trained model is evaluated on an independent test set of the
proposed dataset. We obtained a F1 score of 0.33 while using all the labeled
categories for the semantic segmentation task. Secondly, we labeled all
instruments into an 'Instruments' superclass to evaluate the model's
performance on discerning the various organs and obtained a F1 score of 0.57.
We propose a new dataset and a deep learning method for pixel level
identification of various organs and instruments in a endoscopic surgical
scene. Surgical scene understanding is one of the first steps towards
automating surgical procedures.
- Abstract(参考訳): 自律手術、特に最小限の侵襲的な手術は、人工知能研究の次のフロンティアである。
しかし、既存の課題には、人間の解剖と外科的設定の正確な同定、自律エージェントの訓練のための環境のモデリングが含まれる。
ヒトの解剖学と外科的設定の同定に取り組むために,人間の胴部の内視鏡的ビデオフィードにおいて,組織と臓器を識別しラベル付けするための深層学習に基づく意味セグメンテーションアルゴリズムを提案する。
実際の外科手術の内視鏡的映像フィードから作成した注釈付きデータセットm2caiSegを提案する。
全体として、データは307枚の画像で構成されており、それぞれが臓器と現場に存在するさまざまな手術器具に注釈付けされている。
セマンティックセグメンテーションタスクのための深層畳み込みニューラルネットワークを提案し,訓練する。
注釈付きデータの少ない量に対応するために、教師なし事前学習とデータ拡張を用いる。
トレーニングされたモデルは、提案されたデータセットの独立したテストセットで評価される。
セグメンテーションタスクのラベル付きカテゴリを全て使用しながら,F1スコア0.33を得た。
第2に,全ての楽器を「楽器」スーパークラスに分類し,各種臓器の識別におけるモデルの性能を評価し,f1スコア0.57を得た。
内視鏡手術シーンにおける様々な臓器や器具の画素レベル同定のための新しいデータセットと深層学習法を提案する。
手術シーン理解は外科手術の自動化に向けた最初のステップの1つである。
関連論文リスト
- Data Augmentation for Surgical Scene Segmentation with Anatomy-Aware Diffusion Models [1.9085155846692308]
アノテーションを用いた多段階手術データセットを生成するための多段階的アプローチを提案する。
本フレームワークは,二分節マスクを応用した臓器特異的モデルの訓練により,解剖学的意識の向上を図る。
この汎用的なアプローチにより、実際のバイナリデータセットとシミュレートされた手術マスクから、マルチクラスのデータセットを生成することができる。
論文 参考訳(メタデータ) (2024-10-10T09:29:23Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - Visual-Kinematics Graph Learning for Procedure-agnostic Instrument Tip
Segmentation in Robotic Surgeries [29.201385352740555]
そこで我々は,様々な外科手術を施した楽器の先端を正確に分類する新しいビジュアル・キネマティクスグラフ学習フレームワークを提案する。
具体的には、画像とキネマティクスの両方から楽器部品のリレーショナル特徴を符号化するグラフ学習フレームワークを提案する。
クロスモーダル・コントラッシブ・ロスは、キネマティクスからチップセグメンテーションのイメージへの頑健な幾何学的先行を組み込むように設計されている。
論文 参考訳(メタデータ) (2023-09-02T14:52:58Z) - Hierarchical Semi-Supervised Learning Framework for Surgical Gesture
Segmentation and Recognition Based on Multi-Modality Data [2.8770761243361593]
多モードデータを用いた外科的ジェスチャー分割のための階層型半教師付き学習フレームワークを開発した。
トレーニング済みのResNet-18'バックボーンを備えたTransformerベースのネットワークを使用して,手術ビデオから視覚的特徴を抽出する。
提案手法は、Suturing, Needle Passing, Knot Tyingタスクを含む、公開されているJIGSデータベースのデータを用いて評価されている。
論文 参考訳(メタデータ) (2023-07-31T21:17:59Z) - Rethinking Surgical Instrument Segmentation: A Background Image Can Be
All You Need [18.830738606514736]
データ不足と不均衡はモデルの精度に大きな影響を与え、ディープラーニングベースの手術アプリケーションの設計と展開を制限してきた。
本稿では,ロボット手術によるデータ収集とアノテーションの複雑で高価なプロセスを排除する,1対多のデータ生成ソリューションを提案する。
経験的分析から,高コストなデータ収集とアノテーションがなければ,適切な手術器具のセグメンテーション性能が達成できることが示唆された。
論文 参考訳(メタデータ) (2022-06-23T16:22:56Z) - A unified 3D framework for Organs at Risk Localization and Segmentation
for Radiation Therapy Planning [56.52933974838905]
現在の医療ワークフローは、OAR(Organs-at-risk)のマニュアル記述を必要とする
本研究は,OARローカライゼーション・セグメンテーションのための統合された3Dパイプラインの導入を目的とする。
提案手法は医用画像に固有の3Dコンテキスト情報の活用を可能にする。
論文 参考訳(メタデータ) (2022-03-01T17:08:41Z) - FUN-SIS: a Fully UNsupervised approach for Surgical Instrument
Segmentation [16.881624842773604]
FUN-SISについて述べる。
我々は、暗黙の動作情報と楽器形状に依存して、完全に装飾されていない内視鏡ビデオに基づいてフレーム単位のセグメンテーションモデルを訓練する。
手術器具のセグメンテーションの完全教師なしの結果は, 完全に監督された最先端のアプローチとほぼ同等である。
論文 参考訳(メタデータ) (2022-02-16T15:32:02Z) - Multimodal Semantic Scene Graphs for Holistic Modeling of Surgical
Procedures [70.69948035469467]
カメラビューから3Dグラフを生成するための最新のコンピュータビジョン手法を利用する。
次に,手術手順の象徴的,意味的表現を統一することを目的としたマルチモーダルセマンティックグラフシーン(MSSG)を紹介する。
論文 参考訳(メタデータ) (2021-06-09T14:35:44Z) - Generalized Organ Segmentation by Imitating One-shot Reasoning using
Anatomical Correlation [55.1248480381153]
そこで我々は,アノテーション付きオルガンクラスから一般化されたオルガン概念を学習し,その概念を未知のクラスに転送するOrganNetを提案する。
そこで,OrganNetは臓器形態の幅広い変化に効果的に抵抗でき,一発分節タスクで最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-30T13:41:12Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。