論文の概要: Dissecting Self-Supervised Learning Methods for Surgical Computer Vision
- arxiv url: http://arxiv.org/abs/2207.00449v3
- Date: Wed, 31 May 2023 09:08:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 04:28:22.668663
- Title: Dissecting Self-Supervised Learning Methods for Surgical Computer Vision
- Title(参考訳): 手術用コンピュータビジョンのための自己監督型学習方法の分別
- Authors: Sanat Ramesh, Vinkle Srivastav, Deepak Alapatt, Tong Yu, Aditya
Murali, Luca Sestini, Chinedu Innocent Nwoye, Idris Hamoud, Saurav Sharma,
Antoine Fleurentin, Georgios Exarchakis, Alexandros Karargyris, Nicolas Padoy
- Abstract要約: 一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
- 参考スコア(独自算出の注目度): 51.370873913181605
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The field of surgical computer vision has undergone considerable
breakthroughs in recent years with the rising popularity of deep neural
network-based methods. However, standard fully-supervised approaches for
training such models require vast amounts of annotated data, imposing a
prohibitively high cost; especially in the clinical domain. Self-Supervised
Learning (SSL) methods, which have begun to gain traction in the general
computer vision community, represent a potential solution to these annotation
costs, allowing to learn useful representations from only unlabeled data.
Still, the effectiveness of SSL methods in more complex and impactful domains,
such as medicine and surgery, remains limited and unexplored. In this work, we
address this critical need by investigating four state-of-the-art SSL methods
(MoCo v2, SimCLR, DINO, SwAV) in the context of surgical computer vision. We
present an extensive analysis of the performance of these methods on the
Cholec80 dataset for two fundamental and popular tasks in surgical context
understanding, phase recognition and tool presence detection. We examine their
parameterization, then their behavior with respect to training data quantities
in semi-supervised settings. Correct transfer of these methods to surgery, as
described and conducted in this work, leads to substantial performance gains
over generic uses of SSL - up to 7.4% on phase recognition and 20% on tool
presence detection - as well as state-of-the-art semi-supervised phase
recognition approaches by up to 14%. Further results obtained on a highly
diverse selection of surgical datasets exhibit strong generalization
properties. The code is available at
https://github.com/CAMMA-public/SelfSupSurg.
- Abstract(参考訳): 手術用コンピュータビジョンの分野は近年、ディープニューラルネットワークベースの手法が普及し、かなりのブレークスルーを迎えている。
しかし、そのようなモデルを訓練するための標準的な完全教師付きアプローチは、膨大な量の注釈付きデータを必要とし、特に臨床領域において非常に高いコストを課す。
一般のコンピュータビジョンコミュニティで注目を集め始めている自己監視学習(SSL)メソッドは、これらのアノテーションコストに対する潜在的な解決策であり、ラベルのないデータのみから有用な表現を学習することができる。
それでも、医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は限定的かつ未調査のままである。
本研究は,4つの最先端SSL手法 (MoCo v2, SimCLR, DINO, SwAV) を外科的コンピュータビジョンの文脈で検討することによって,この問題に対処する。
本稿では, 外科的文脈理解, 位相認識, ツールの存在検出におけるcholec80データセットにおけるこれらの手法の性能を広範囲に分析する。
半教師付き環境でのデータ量に関するパラメータ化を行い,その振る舞いについて検討する。
この研究で述べられたように、これらの方法の手術への正しい転送は、SSLの一般的な使用よりも、最大で7.4%の位相認識と20%のツール存在検出、そして最先端の半教師付き位相認識アプローチを最大で14%向上させる。
より多種多様な外科的データセットから得られた結果は、強力な一般化特性を示す。
コードはhttps://github.com/camma-public/selfsupsurgで入手できる。
関連論文リスト
- Jumpstarting Surgical Computer Vision [2.7396997668655163]
我々は、多様な外科的データセットを柔軟に活用するために、自己教師付き学習を採用する。
腹腔鏡下胆嚢摘出術と腹腔鏡下子宮摘出術の位相認識と安全性の検討を行った。
事前トレーニングデータセットの構成は、さまざまな下流タスクに対するSSLメソッドの有効性に大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2023-12-10T18:54:16Z) - Shifting to Machine Supervision: Annotation-Efficient Semi and Self-Supervised Learning for Automatic Medical Image Segmentation and Classification [9.67209046726903]
我々は、自己教師型および半教師型学習の進歩を活用する新しいアプローチであるS4MIパイプラインを紹介する。
本研究は、これらの手法を3つの異なる医用画像データセット上で評価し、分類と分割作業の有効性を評価する。
注目すべきは、半教師付きアプローチはセグメンテーションにおいて優れた結果を示し、全データセットで50%少ないラベルを使用しながら、完全な教師付き手法よりも優れた結果を示したことだ。
論文 参考訳(メタデータ) (2023-11-17T04:04:29Z) - Robust Surgical Tools Detection in Endoscopic Videos with Noisy Data [2.566694420723775]
ノイズデータを用いた手術用ツール検出のためのロバストなモデルを開発するための体系的手法を提案する。
提案手法では,(1)データセットの最小化のための知的能動学習戦略と,(2)学習者モデルに基づく自己学習フレームワークの組み立て戦略,の2点を紹介する。
提案手法は,クラス重み付きアンサンブルモデルを用いた自己学習では平均85.88%,うるさいラベルでは80.88%のF1スコアを達成する。
論文 参考訳(メタデータ) (2023-07-03T08:12:56Z) - Benchmarking Self-Supervised Learning on Diverse Pathology Datasets [10.868779327544688]
自己教師付き学習は、ラベルのないデータを活用する効果的な方法であることが示されている。
我々は、病理画像データに基づいてSSL事前トレーニングを行う最大規模の研究を行う。
核インスタンスセグメンテーションの課題に対してSSLを初めて適用する。
論文 参考訳(メタデータ) (2022-12-09T06:38:34Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - Federated Cycling (FedCy): Semi-supervised Federated Learning of
Surgical Phases [57.90226879210227]
FedCyは、FLと自己教師付き学習を組み合わせた半教師付き学習(FSSL)手法で、ラベル付きビデオとラベルなしビデオの両方の分散データセットを利用する。
外科的段階の自動認識作業において,最先端のFSSL法よりも顕著な性能向上を示した。
論文 参考訳(メタデータ) (2022-03-14T17:44:53Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z) - LRTD: Long-Range Temporal Dependency based Active Learning for Surgical
Workflow Recognition [67.86810761677403]
本稿では,費用対効果の高い手術ビデオ解析のための新しい能動的学習法を提案する。
具体的には,非局所的再帰的畳み込みネットワーク (NL-RCNet) を提案する。
手術ワークフロー認識タスクを実行することで,大規模な手術ビデオデータセット(Cholec80)に対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-04-21T09:21:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。