論文の概要: Image Compositing for Segmentation of Surgical Tools without Manual
Annotations
- arxiv url: http://arxiv.org/abs/2102.09528v1
- Date: Thu, 18 Feb 2021 18:14:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 14:18:44.665741
- Title: Image Compositing for Segmentation of Surgical Tools without Manual
Annotations
- Title(参考訳): 手動アノテーションを伴わない手術器具の分割のための画像合成
- Authors: Luis C. Garcia-Peraza-Herrera, Lucas Fidon, Claudia D'Ettorre, Danail
Stoyanov, Tom Vercauteren, Sebastien Ourselin
- Abstract要約: 特殊効果による手法を活用し、現実的なトレーニングデータセットの作成を自動化することを提案する。
クロマキーの上にサンプル手術器具を置くことにより、前景データをキャプチャする。
背景データは、楽器を含まないビデオの収集によって取得される。
半合成データのみを用いてバニラU-Netをトレーニングし、簡単な後処理を適用することで、公開可能な実データセットでトレーニングされた同じネットワークの結果と一致できることを示す。
- 参考スコア(独自算出の注目度): 10.05087029666444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Producing manual, pixel-accurate, image segmentation labels is tedious and
time-consuming. This is often a rate-limiting factor when large amounts of
labeled images are required, such as for training deep convolutional networks
for instrument-background segmentation in surgical scenes. No large datasets
comparable to industry standards in the computer vision community are available
for this task. To circumvent this problem, we propose to automate the creation
of a realistic training dataset by exploiting techniques stemming from special
effects and harnessing them to target training performance rather than visual
appeal. Foreground data is captured by placing sample surgical instruments over
a chroma key (a.k.a. green screen) in a controlled environment, thereby making
extraction of the relevant image segment straightforward. Multiple lighting
conditions and viewpoints can be captured and introduced in the simulation by
moving the instruments and camera and modulating the light source. Background
data is captured by collecting videos that do not contain instruments. In the
absence of pre-existing instrument-free background videos, minimal labeling
effort is required, just to select frames that do not contain surgical
instruments from videos of surgical interventions freely available online. We
compare different methods to blend instruments over tissue and propose a novel
data augmentation approach that takes advantage of the plurality of options. We
show that by training a vanilla U-Net on semi-synthetic data only and applying
a simple post-processing, we are able to match the results of the same network
trained on a publicly available manually labeled real dataset.
- Abstract(参考訳): 手動、ピクセル精度、画像セグメンテーションラベルの作成は面倒で時間がかかる。
これは多くの場合、外科的シーンにおける楽器背景セグメンテーションのための深い畳み込みネットワークのトレーニングなど、大量のラベル付き画像が必要な場合、レート制限要因です。
このタスクには、コンピュータビジョンコミュニティの業界標準に匹敵する大規模なデータセットは使用できない。
この問題を回避するために,特殊効果を生かした技術を活用して,視覚的魅力ではなく,トレーニングパフォーマンスを目標としたリアルなトレーニングデータセットの自動作成を提案する。
前景データをクロマキー(a.k.a.)上にサンプル外科器具を置くことにより取得する。
グリーンスクリーン) 制御された環境では、関連する画像セグメントの抽出が簡単になる。
機器やカメラを動かして光源を変調することで、複数の照明条件や視点をシミュレーションで捉えて導入することができます。
背景データは、楽器を含まないビデオの収集によって取得される。
既存の楽器のない背景ビデオがない場合は、オンラインで自由に利用可能な手術介入ビデオから手術器具を含まないフレームを選択するだけで、最小限のラベリングが必要となる。
組織上で楽器をブレンドするための異なる方法を比較し,複数の選択肢を生かした新しいデータ拡張手法を提案する。
半合成データのみを用いてバニラU-Netをトレーニングし、簡単な後処理を適用することで、公開可能な実データセットでトレーニングされた同じネットワークの結果と一致できることを示す。
関連論文リスト
- Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Procedural Image Programs for Representation Learning [62.557911005179946]
我々は,2万プログラムからなる大規模なデータセットを用いて,多様な合成画像を生成する訓練を提案する。
これらのプログラムは短いコードスニペットであり、変更が容易で、高速に実行することができる。
提案したデータセットは、教師付きおよび教師なしの表現学習の両方に使用することができ、実際の画像と手続き的に生成された画像との事前学習のギャップを38%削減する。
論文 参考訳(メタデータ) (2022-11-29T17:34:22Z) - Pseudo-label Guided Cross-video Pixel Contrast for Robotic Surgical
Scene Segmentation with Limited Annotations [72.15956198507281]
シーンセグメンテーションを促進するために,新しい擬似ラベル付きクロスビデオコントラスト学習法であるPGV-CLを提案する。
本研究では,ロボット外科手術データセットEndoVis18と白内障手術データセットCaDISについて検討した。
論文 参考訳(メタデータ) (2022-07-20T05:42:19Z) - Rethinking Surgical Instrument Segmentation: A Background Image Can Be
All You Need [18.830738606514736]
データ不足と不均衡はモデルの精度に大きな影響を与え、ディープラーニングベースの手術アプリケーションの設計と展開を制限してきた。
本稿では,ロボット手術によるデータ収集とアノテーションの複雑で高価なプロセスを排除する,1対多のデータ生成ソリューションを提案する。
経験的分析から,高コストなデータ収集とアノテーションがなければ,適切な手術器具のセグメンテーション性能が達成できることが示唆された。
論文 参考訳(メタデータ) (2022-06-23T16:22:56Z) - Panoptic Segmentation using Synthetic and Real Data [21.226582774172062]
本研究では,実環境と実物体の3次元モデルから合成画像を生成するパイプラインを提案する。
実験により、合成画像を使用することで、合理的なパノプティクスセグメンテーション性能を得るために必要な実画像の数を劇的に削減できることが示された。
論文 参考訳(メタデータ) (2022-04-14T16:01:48Z) - FUN-SIS: a Fully UNsupervised approach for Surgical Instrument
Segmentation [16.881624842773604]
FUN-SISについて述べる。
我々は、暗黙の動作情報と楽器形状に依存して、完全に装飾されていない内視鏡ビデオに基づいてフレーム単位のセグメンテーションモデルを訓練する。
手術器具のセグメンテーションの完全教師なしの結果は, 完全に監督された最先端のアプローチとほぼ同等である。
論文 参考訳(メタデータ) (2022-02-16T15:32:02Z) - Learning To Segment Dominant Object Motion From Watching Videos [72.57852930273256]
我々は,有意な移動物体セグメンテーションのための単純なフレームワークを構想する。このフレームワークは,有意なデータを必要としないし,有意な前処理や事前学習された光フローマップに依存しない。
層状画像表現に着想を得て,アフィンパラメトリックの動きに応じて画素領域をグループ化する手法を提案する。
これにより、トレーニングと推論の両方の入力として、RGBイメージペアのみを使用して、支配的なフォアグラウンドオブジェクトのセグメンテーションを学習することができる。
論文 参考訳(メタデータ) (2021-11-28T14:51:00Z) - Data Augmentation for Object Detection via Differentiable Neural
Rendering [71.00447761415388]
注釈付きデータが乏しい場合、堅牢なオブジェクト検出器を訓練することは困難です。
この問題に対処する既存のアプローチには、ラベル付きデータからラベル付きデータを補間する半教師付き学習が含まれる。
オブジェクト検出のためのオフラインデータ拡張手法を導入し、新しいビューでトレーニングデータを意味的に補間する。
論文 参考訳(メタデータ) (2021-03-04T06:31:06Z) - PennSyn2Real: Training Object Recognition Models without Human Labeling [12.923677573437699]
我々はPennSyn2Realを提案する。20種類以上のマイクロエアロビー(MAV)の10万以上の4K画像からなる合成データセットである。
このデータセットは、MAV検出や分類などのハイレベルコンピュータビジョンタスクのための任意の数のトレーニングイメージを生成するために使用することができる。
このフレームワークを用いて生成された合成データは,検出やセグメンテーションといった一般的なオブジェクト認識タスクに対して,CNNモデルをトレーニングするために直接利用できることを示す。
論文 参考訳(メタデータ) (2020-09-22T02:53:40Z) - Synthetic and Real Inputs for Tool Segmentation in Robotic Surgery [10.562627972607892]
腹腔鏡画像と組み合わせたロボットキネマティックデータを用いてラベル付け問題を緩和できる可能性が示唆された。
腹腔鏡画像とシミュレーション画像の並列処理のための新しい深層学習モデルを提案する。
論文 参考訳(メタデータ) (2020-07-17T16:33:33Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。