論文の概要: Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks
- arxiv url: http://arxiv.org/abs/2007.04505v1
- Date: Thu, 9 Jul 2020 01:39:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 04:36:07.116117
- Title: Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks
- Title(参考訳): 循環型対向ネットワークを用いたロボット手術における機器セグメンテーションの教師なし学習に向けて
- Authors: Daniil Pakhomov, Wei Shen, Nassir Navab
- Abstract要約: 本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
- 参考スコア(独自算出の注目度): 54.00217496410142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surgical tool segmentation in endoscopic images is an important problem: it
is a crucial step towards full instrument pose estimation and it is used for
integration of pre- and intra-operative images into the endoscopic view. While
many recent approaches based on convolutional neural networks have shown great
results, a key barrier to progress lies in the acquisition of a large number of
manually-annotated images which is necessary for an algorithm to generalize and
work well in diverse surgical scenarios. Unlike the surgical image data itself,
annotations are difficult to acquire and may be of variable quality. On the
other hand, synthetic annotations can be automatically generated by using
forward kinematic model of the robot and CAD models of tools by projecting them
onto an image plane. Unfortunately, this model is very inaccurate and cannot be
used for supervised learning of image segmentation models. Since generated
annotations will not directly correspond to endoscopic images due to errors, we
formulate the problem as an unpaired image-to-image translation where the goal
is to learn the mapping between an input endoscopic image and a corresponding
annotation using an adversarial model. Our approach allows to train image
segmentation models without the need to acquire expensive annotations and can
potentially exploit large unlabeled endoscopic image collection outside the
annotated distributions of image/annotation data. We test our proposed method
on Endovis 2017 challenge dataset and show that it is competitive with
supervised segmentation methods.
- Abstract(参考訳): 内視鏡画像における外科的ツールセグメンテーションは重要な問題であり,全機器のポーズ推定への重要なステップであり,術前および術中画像の内視鏡視への統合に使用される。
畳み込みニューラルネットワークに基づく最近の多くのアプローチは大きな成果を上げているが、進歩の鍵となる障壁は、さまざまな手術シナリオにおいてアルゴリズムが一般化し、うまく機能するために必要な、多数の手動注釈画像の取得にある。
外科画像データと異なり、アノテーションの取得は困難であり、品質が変動する可能性がある。
一方,ロボットの前方運動モデルとCADモデルを用いて,画像平面上に投影することで,合成アノテーションを自動的に生成することができる。
残念ながら、このモデルは不正確であり、画像分割モデルの教師あり学習には使用できない。
生成したアノテーションは誤りによる内視鏡画像と直接対応しないため,入力された内視鏡画像と対応するアノテーションとのマッピングを敵モデルを用いて学習することを目的として,画像から画像への非対訳として問題を定式化する。
本手法は,高価なアノテーションを必要とせずに画像セグメンテーションモデルを訓練することを可能にし,画像/注釈データの注釈分布の外側で大きなラベルのない内視鏡的画像収集を活用できる。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
関連論文リスト
- UnSeg: One Universal Unlearnable Example Generator is Enough against All Image Segmentation [64.01742988773745]
未承認のプライベートデータ上での大規模なイメージセグメンテーションモデルのトレーニングに関して、プライバシーに関する懸念が高まっている。
我々は、学習不可能な例の概念を利用して、学習不可能なノイズを原画像に生成し、付加することにより、モデルトレーニングに使用不能な画像を作成する。
6つのメインストリームイメージセグメンテーションタスク、10つの広く使われているデータセット、7つの異なるネットワークアーキテクチャでUnSegの有効性を実証的に検証する。
論文 参考訳(メタデータ) (2024-10-13T16:34:46Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Visual-Kinematics Graph Learning for Procedure-agnostic Instrument Tip
Segmentation in Robotic Surgeries [29.201385352740555]
そこで我々は,様々な外科手術を施した楽器の先端を正確に分類する新しいビジュアル・キネマティクスグラフ学習フレームワークを提案する。
具体的には、画像とキネマティクスの両方から楽器部品のリレーショナル特徴を符号化するグラフ学習フレームワークを提案する。
クロスモーダル・コントラッシブ・ロスは、キネマティクスからチップセグメンテーションのイメージへの頑健な幾何学的先行を組み込むように設計されている。
論文 参考訳(メタデータ) (2023-09-02T14:52:58Z) - Learning to Annotate Part Segmentation with Gradient Matching [58.100715754135685]
本稿では,事前学習したGANを用いて,高品質な画像を生成することで,半教師付き部分分割タスクに対処することに焦点を当てる。
特に、アノテータ学習を学習から学習までの問題として定式化する。
提案手法は,実画像,生成された画像,さらには解析的に描画された画像を含む,幅広いラベル付き画像からアノテータを学習可能であることを示す。
論文 参考訳(メタデータ) (2022-11-06T01:29:22Z) - Min-Max Similarity: A Contrastive Learning Based Semi-Supervised
Learning Network for Surgical Tools Segmentation [0.0]
コントラスト学習に基づく半教師付きセグメンテーションネットワークを提案する。
従来の最先端技術とは対照的に、両視点トレーニングの対照的な学習形式を導入する。
提案手法は、最先端の半教師付きおよび完全教師付きセグメンテーションアルゴリズムを一貫して上回る。
論文 参考訳(メタデータ) (2022-03-29T01:40:26Z) - Reducing Annotating Load: Active Learning with Synthetic Images in
Surgical Instrument Segmentation [11.705954708866079]
ロボット支援手術の内視鏡視における計測器のセグメンテーションは,装置の反射や組織との頻繁な接触により困難である。
ディープニューラルネットワーク(DNN)は競争力があり、近年は好まれている。
この作業量を緩和することで、ラベル付き実画像の使用を減らし、汎用的な埋め込み可能な手法を提案する。
論文 参考訳(メタデータ) (2021-08-07T22:30:53Z) - Controllable cardiac synthesis via disentangled anatomy arithmetic [15.351113774542839]
異方性解剖学算術」という枠組みを提案する。
生成モデルは、異なる入力画像の解剖学的要因と所望の撮像モダリティを組み合わせることを学習する。
我々のモデルは、リアルなイメージ、病理ラベル、セグメンテーションマスクを生成するために使用される。
論文 参考訳(メタデータ) (2021-07-04T23:13:33Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Going to Extremes: Weakly Supervised Medical Image Segmentation [12.700841704699615]
セグメンテーションモデルをトレーニングするために、極端点クリックという形で最小限のユーザインタラクションを使うことを提案する。
ランダムウォーカアルゴリズムを利用した極端点に基づいて初期セグメンテーションを生成する。
この初期セグメンテーションは、完全な畳み込みネットワークを訓練するためにノイズの多い監視信号として使用される。
論文 参考訳(メタデータ) (2020-09-25T00:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。