論文の概要: MIcro-Surgical Anastomose Workflow recognition challenge report
- arxiv url: http://arxiv.org/abs/2103.13111v1
- Date: Wed, 24 Mar 2021 11:34:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 13:48:57.057373
- Title: MIcro-Surgical Anastomose Workflow recognition challenge report
- Title(参考訳): MIcro-Surgical Anastomose Workflow Recognition Challenge Report
- Authors: Arnaud Huaulm\'e, Duygu Sarikaya, K\'evin Le Mut, Fabien Despinoy,
Yonghao Long, Qi Dou, Chin-Boon Chng, Wenjun Lin, Satoshi Kondo, Laura
Bravo-S\'anchez, Pablo Arbel\'aez, Wolfgang Reiter, Manoru Mitsuishi, Kanako
Harada, Pierre Jannin
- Abstract要約: MISAW(Micro-Surgical Anastomose recognition on training session)の課題は、人工血管のマイクロサージカルアナスモシス27配列のデータセットを提供した。
このデータセットは、フェーズ、ステップ、アクティビティの3つの異なる粒度レベルで記述されたビデオ、キネマティクス、ワークフローアノテーションで構成されています。
最高のモデルは、段階認識の95%以上のAD精度、ステップ認識の80%、アクティビティ認識の60%、すべての粒度レベルの75%を達成しました。
- 参考スコア(独自算出の注目度): 12.252332806968756
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The "MIcro-Surgical Anastomose Workflow recognition on training sessions"
(MISAW) challenge provided a data set of 27 sequences of micro-surgical
anastomosis on artificial blood vessels. This data set was composed of videos,
kinematics, and workflow annotations described at three different granularity
levels: phase, step, and activity. The participants were given the option to
use kinematic data and videos to develop workflow recognition models. Four
tasks were proposed to the participants: three of them were related to the
recognition of surgical workflow at three different granularity levels, while
the last one addressed the recognition of all granularity levels in the same
model. One ranking was made for each task. We used the average
application-dependent balanced accuracy (AD-Accuracy) as the evaluation metric.
This takes unbalanced classes into account and it is more clinically relevant
than a frame-by-frame score. Six teams, including a non-competing team,
participated in at least one task. All models employed deep learning models,
such as CNN or RNN. The best models achieved more than 95% AD-Accuracy for
phase recognition, 80% for step recognition, 60% for activity recognition, and
75% for all granularity levels. For high levels of granularity (i.e., phases
and steps), the best models had a recognition rate that may be sufficient for
applications such as prediction of remaining surgical time or resource
management. However, for activities, the recognition rate was still low for
applications that can be employed clinically. The MISAW data set is publicly
available to encourage further research in surgical workflow recognition. It
can be found at www.synapse.org/MISAW
- Abstract(参考訳): MISAW(Micro-Surgical Anastomose Workflow Recognition on Training session)の課題は、人工血管に対する27の微小外科的解剖のデータセットを提供することであった。
このデータセットは、フェーズ、ステップ、アクティビティという3つの異なる粒度レベルで記述されたビデオ、キネマティクス、ワークフローアノテーションで構成されています。
参加者には、キネマティックデータとビデオを使用してワークフロー認識モデルを開発するオプションが与えられた。
4つの課題が提案され、そのうち3つは3つの異なる粒度レベルでの手術ワークフローの認識に関連し、もう1つは同じモデルにおける全ての粒度レベルの認識に対処した。
各タスクごとに1つのランク付けが行われた。
平均アプリケーション依存バランス精度(AD-Accuracy)を評価指標として用いた。
これは不均衡なクラスを考慮に入れ、フレーム毎のスコアよりも臨床的に適切である。
非競合チームを含む6チームが少なくとも1つのタスクに参加した。
全てのモデルはCNNやRNNのようなディープラーニングモデルを採用した。
最高のモデルでは、位相認識に95%以上のAD精度、ステップ認識に80%、アクティビティ認識に60%、粒度レベルに75%が達成された。
高レベルの粒度(フェーズとステップ)では、最高のモデルでは、残っている手術時間やリソース管理の予測のような応用に十分な認識率を持っていた。
しかし, 臨床で使用可能な用途では, 認識率が低かった。
MISAWデータセットは、外科的ワークフロー認識のさらなる研究を促進するために公開されている。
www.synapse.org/MISAWで見ることができる。
関連論文リスト
- The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - NEVIS'22: A Stream of 100 Tasks Sampled from 30 Years of Computer Vision
Research [96.53307645791179]
我々は,100以上の視覚的分類タスクのストリームからなるベンチマークであるNever-Ending VIsual-classification Stream (NEVIS'22)を紹介する。
分類に制限されているにもかかわらず、OCR、テクスチャ分析、シーン認識など、様々なタスクが生成される。
NEVIS'22は、タスクの規模と多様性のために、現在のシーケンシャルな学習アプローチに対して前例のない課題を提起している。
論文 参考訳(メタデータ) (2022-11-15T18:57:46Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - PEg TRAnsfer Workflow recognition challenge report: Does multi-modal
data improve recognition? [14.144188912860892]
PETRAW (PEg TRAnsfert Recognition) の課題は, 手術ワークフロー認識法の開発であった。
PETRAWチャレンジは、仮想シミュレータ上で実行される150ペグの転送シーケンスのデータセットを提供する。
ビデオ/キネマティックベースの手法と一様性(uni-modality)の改善は、すべてのチームにとって重要なものでした。
論文 参考訳(メタデータ) (2022-02-11T18:33:11Z) - Comparative Validation of Machine Learning Algorithms for Surgical
Workflow and Skill Analysis with the HeiChole Benchmark [36.37186411201134]
外科的ワークフローとスキル分析は、次世代の認知外科補助システムにおいて重要な技術である。
マルチセンター環境における位相認識アルゴリズムの一般化可能性について検討した。
論文 参考訳(メタデータ) (2021-09-30T09:34:13Z) - Active learning for medical code assignment [55.99831806138029]
臨床領域における多ラベルテキスト分類におけるアクティブラーニング(AL)の有効性を示す。
MIMIC-IIIデータセットにICD-9コードを自動的に割り当てるために、よく知られたALメソッドのセットを適用します。
その結果、有益なインスタンスの選択は、大幅に減少したトレーニングセットで満足のいく分類を提供する。
論文 参考訳(メタデータ) (2021-04-12T18:11:17Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z) - Multi-Task Recurrent Neural Network for Surgical Gesture Recognition and
Progress Prediction [17.63619129438996]
本稿では,手術動作の同時認識のためのマルチタスクリカレントニューラルネットワークを提案する。
マルチタスクフレームワークでは,手作業によるラベリングやトレーニングを伴わずに,進捗推定による認識性能が向上することが実証された。
論文 参考訳(メタデータ) (2020-03-10T14:28:02Z) - Temporal Segmentation of Surgical Sub-tasks through Deep Learning with
Multiple Data Sources [14.677001578868872]
本稿では,タスクが進行するにつれて発生する動作や事象に基づいて,統一的な手術状態推定モデルを提案する。
JHU-ISI Gesture and Skill Assessment Working Set(JIGSAWS)と,ロボット内超音波(RIOUS)画像を含むより複雑なデータセットについて検討した。
本モデルでは,89.4%まで優れたフレームワイド状態推定精度を実現し,最先端の手術状態推定モデルを改善する。
論文 参考訳(メタデータ) (2020-02-07T17:49:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。