論文の概要: "Train one, Classify one, Teach one" -- Cross-surgery transfer learning
for surgical step recognition
- arxiv url: http://arxiv.org/abs/2102.12308v1
- Date: Wed, 24 Feb 2021 14:36:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-25 13:45:41.825907
- Title: "Train one, Classify one, Teach one" -- Cross-surgery transfer learning
for surgical step recognition
- Title(参考訳): 『Train one, Classify one, Teach one』 -- 外科的段階認識のためのクロスサージリートランスファーラーニング
- Authors: Daniel Neimark, Omri Bar, Maya Zohar, Gregory D. Hager, Dotan
Asselmann
- Abstract要約: 私たちは、4つの異なる腹腔鏡手術における外科的ステップ認識を初めて分析します。
外科的ステップ認識の転送学習に最適化された新しいアーキテクチャであるTime-Series Adaptation Network(TSAN)を紹介します。
腹腔鏡下胆嚢摘出術を他の3種類の術式に移行した場合に90%以上の精度が得られた。
- 参考スコア(独自算出の注目度): 14.635480748841317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior work demonstrated the ability of machine learning to automatically
recognize surgical workflow steps from videos. However, these studies focused
on only a single type of procedure. In this work, we analyze, for the first
time, surgical step recognition on four different laparoscopic surgeries:
Cholecystectomy, Right Hemicolectomy, Sleeve Gastrectomy, and Appendectomy.
Inspired by the traditional apprenticeship model, in which surgical training is
based on the Halstedian method, we paraphrase the "see one, do one, teach one"
approach for the surgical intelligence domain as "train one, classify one,
teach one". In machine learning, this approach is often referred to as transfer
learning. To analyze the impact of transfer learning across different
laparoscopic procedures, we explore various time-series architectures and
examine their performance on each target domain. We introduce a new
architecture, the Time-Series Adaptation Network (TSAN), an architecture
optimized for transfer learning of surgical step recognition, and we show how
TSAN can be pre-trained using self-supervised learning on a Sequence Sorting
task. Such pre-training enables TSAN to learn workflow steps of a new
laparoscopic procedure type from only a small number of labeled samples from
the target procedure. Our proposed architecture leads to better performance
compared to other possible architectures, reaching over 90% accuracy when
transferring from laparoscopic Cholecystectomy to the other three procedure
types.
- Abstract(参考訳): 以前の研究では、ビデオから外科的ワークフローステップを自動的に認識する機械学習の機能を示した。
しかし、これらの研究は単一のタイプの手順のみに焦点を当てた。
本研究では、胆嚢摘出術、右血球摘出術、スリーブ胃切除術、虫垂切除術の4つの異なる腹腔鏡下手術における外科的ステップ認識を初めて解析する。
手術訓練がハルステッド法に基づいている伝統的な見習いモデルに触発されて、手術知能領域における「1つ見て、やって、1つを教える」アプローチを「1つを訓練し、1つを分類し、1つを教える」と仮定する。
機械学習では、このアプローチは転校学習と呼ばれることが多い。
異なる腹腔鏡的手順におけるトランスファーラーニングの影響を分析するために、さまざまな時系列アーキテクチャを探索し、各ターゲットドメインにおけるそれらのパフォーマンスを調べます。
外科的ステップ認識の伝達学習に最適化されたアーキテクチャであるTSAN(Time-Series Adaptation Network)を導入し、シーケンスソーティングタスクにおける自己教師型学習を用いて、TSANを事前トレーニングする方法を示す。
このような事前トレーニングにより、tsanはターゲットプロシージャから少数のラベル付きサンプルから新しい腹腔鏡下手術型のワークフローステップを学習できる。
腹腔鏡下胆嚢摘出術を他の3種類の術式に移行した場合に90%以上の精度が得られた。
関連論文リスト
- A Zero-Shot Reinforcement Learning Strategy for Autonomous Guidewire
Navigation [0.0]
循環器疾患の治療にはガイドワイヤとカテーテルの複雑で困難なナビゲーションが必要である。
これは、患者と臨床医がX線に曝される長い介入につながることが多い。
深層強化学習アプローチは、このタスクを学習する上で有望であり、ロボットによる介入の間、カテーテルナビゲーションを自動化する鍵となる可能性がある。
論文 参考訳(メタデータ) (2024-03-05T08:46:54Z) - Toward a Surgeon-in-the-Loop Ophthalmic Robotic Apprentice using Reinforcement and Imitation Learning [18.72371138886818]
眼内白内障手術における外科医中心の自律エージェントに対する画像誘導アプローチを提案する。
外科医の行動と嗜好をトレーニングプロセスに統合することにより、ロボットは個々の外科医のユニークなテクニックを暗黙的に学習し、適応することができる。
論文 参考訳(メタデータ) (2023-11-29T15:00:06Z) - Visual-Kinematics Graph Learning for Procedure-agnostic Instrument Tip
Segmentation in Robotic Surgeries [29.201385352740555]
そこで我々は,様々な外科手術を施した楽器の先端を正確に分類する新しいビジュアル・キネマティクスグラフ学習フレームワークを提案する。
具体的には、画像とキネマティクスの両方から楽器部品のリレーショナル特徴を符号化するグラフ学習フレームワークを提案する。
クロスモーダル・コントラッシブ・ロスは、キネマティクスからチップセグメンテーションのイメージへの頑健な幾何学的先行を組み込むように設計されている。
論文 参考訳(メタデータ) (2023-09-02T14:52:58Z) - GLSFormer : Gated - Long, Short Sequence Transformer for Step
Recognition in Surgical Videos [57.93194315839009]
本稿では,シーケンスレベルのパッチから時間的特徴を直接学習するための視覚変換器に基づくアプローチを提案する。
本研究では,白内障手術用ビデオデータセットである白内障-101とD99に対するアプローチを広範に評価し,各種の最先端手法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2023-07-20T17:57:04Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - Surgical Phase Recognition in Laparoscopic Cholecystectomy [57.929132269036245]
本稿では,2段階推論パイプラインのキャリブレーションされた信頼度スコアを利用するTransformerに基づく手法を提案する。
提案手法はColec80データセットのベースラインモデルよりも優れており,様々なアクションセグメンテーション手法に適用できる。
論文 参考訳(メタデータ) (2022-06-14T22:55:31Z) - Quantification of Robotic Surgeries with Vision-Based Deep Learning [45.165919577877695]
本稿では,手術中に録画されたビデオのみを対象とする統合型ディープラーニングフレームワークRoboformerを提案する。
我々は,ミニマル侵襲型ロボット手術において,一般的な2種類のステップの4つのビデオベースデータセットに対して,我々の枠組みを検証した。
論文 参考訳(メタデータ) (2022-05-06T06:08:35Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。