論文の概要: Unsupervised identification of surgical robotic actions from small non
homogeneous datasets
- arxiv url: http://arxiv.org/abs/2105.08488v1
- Date: Tue, 18 May 2021 13:06:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 13:58:16.041831
- Title: Unsupervised identification of surgical robotic actions from small non
homogeneous datasets
- Title(参考訳): 小型非均質データセットからの手術ロボット動作の教師なし同定
- Authors: Daniele Meli, Paolo Fiorini
- Abstract要約: 本稿では,標準手術訓練課題における手術動作の教師なし識別のための新しいアルゴリズムを提案する。
私たちは同様のアプリケーションで最先端の結果を著しく上回ることができる。
標準商用仕様のハードウェア上の完全なアクション識別は、単一の実行のために1 s未満で実行される。
- 参考スコア(独自算出の注目度): 2.055949720959582
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robot-assisted surgery is an established clinical practice. The automatic
identification of surgical actions is needed for a range of applications,
including performance assessment of trainees and surgical process modeling for
autonomous execution and monitoring. However, supervised action identification
is not feasible, due to the burden of manually annotating recordings of
potentially complex and long surgical executions. Moreover, often few example
executions of a surgical procedure can be recorded. This paper proposes a novel
algorithm for unsupervised identification of surgical actions in a standard
surgical training task, the ring transfer, executed with da Vinci Research Kit.
Exploiting kinematic and semantic visual features automatically extracted from
a very limited dataset of executions, we are able to significantly outperform
the state-of-the-art results for a similar application, improving the quality
of segmentation (88% vs. 82% matching score) and clustering (67% vs. 54%
F1-score) even in the presence of noise, short actions and non homogeneous
workflows, i.e. non repetitive action sequences. Full action identification on
hardware with standard commercial specifications is performed in less than 1 s
for single execution.
- Abstract(参考訳): ロボット支援手術は確立された臨床実践である。
研修生のパフォーマンス評価や、自律的な実行とモニタリングのための手術プロセスモデリングなど、さまざまな用途において外科的アクションの自動識別が必要である。
しかし,手術が複雑で長い場合,手作業で記録に注釈を付ける重荷がかかるため,指導された行動同定は不可能である。
さらに、手術手順の実施例が記録されることも少なくない。
本稿では,da vinci research kitで実施した標準手術訓練課題であるリングトランスファーにおいて,手術動作の教師なし識別のための新しいアルゴリズムを提案する。
非常に限られた実行データセットから自動的にキネマティックおよびセマンティックな視覚的特徴を抽出することにより、同様のアプリケーションで最先端の結果を大幅に上回り、ノイズやショートアクション、非均一なワークフローの存在下でもセグメンテーション(88%対82%のマッチングスコア)とクラスタリング(67%対54%のF1スコア)の品質を向上させることができる。
非反復的なアクションシーケンス
標準商用仕様のハードウェア上の完全なアクション識別は、単一の実行のために1 s未満で実行される。
関連論文リスト
- Automated Surgical Skill Assessment in Endoscopic Pituitary Surgery using Real-time Instrument Tracking on a High-fidelity Bench-top Phantom [9.41936397281689]
外科的スキルの改善は一般的に患者の成績の改善に関連しているが、評価は主観的であり、労働集約的である。
内視鏡下垂体手術の鼻相を模範として,シミュレートされた手術に焦点を当てた新しい公開データセットが導入された。
多層パーセプトロンは87%の精度で手術技量(初心者または専門家)を予測し、「可視時間測定のための全手術時間の割合」は高度な手術技量と相関した。
論文 参考訳(メタデータ) (2024-09-25T15:27:44Z) - PitVis-2023 Challenge: Workflow Recognition in videos of Endoscopic Pituitary Surgery [46.2901962659261]
The Pituitary Vision (VisVis) 2023 Challengeは、内視鏡下垂体手術のビデオで、コミュニティに認識のステップと計測を課している。
これは、より小さな作業スペースのため、他の最小侵襲の手術と比較しても、ユニークなタスクである。
6つの国にまたがる9チームから18のチームがあり、さまざまなディープラーニングモデルを使用していた。
論文 参考訳(メタデータ) (2024-09-02T11:38:06Z) - SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - ST(OR)2: Spatio-Temporal Object Level Reasoning for Activity Recognition
in the Operating Room [6.132617753806978]
ORにおける外科的活動認識のための新しい試料効率およびオブジェクトベースアプローチを提案する。
本手法は, 臨床医と手術器具の幾何学的配置に着目し, ORにおける重要な物体相互作用のダイナミクスを活用する。
論文 参考訳(メタデータ) (2023-12-19T15:33:57Z) - Visual-Kinematics Graph Learning for Procedure-agnostic Instrument Tip
Segmentation in Robotic Surgeries [29.201385352740555]
そこで我々は,様々な外科手術を施した楽器の先端を正確に分類する新しいビジュアル・キネマティクスグラフ学習フレームワークを提案する。
具体的には、画像とキネマティクスの両方から楽器部品のリレーショナル特徴を符号化するグラフ学習フレームワークを提案する。
クロスモーダル・コントラッシブ・ロスは、キネマティクスからチップセグメンテーションのイメージへの頑健な幾何学的先行を組み込むように設計されている。
論文 参考訳(メタデータ) (2023-09-02T14:52:58Z) - Surgical Phase Recognition in Laparoscopic Cholecystectomy [57.929132269036245]
本稿では,2段階推論パイプラインのキャリブレーションされた信頼度スコアを利用するTransformerに基づく手法を提案する。
提案手法はColec80データセットのベースラインモデルよりも優れており,様々なアクションセグメンテーション手法に適用できる。
論文 参考訳(メタデータ) (2022-06-14T22:55:31Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - One-shot action recognition towards novel assistive therapies [63.23654147345168]
この作業は、アクション模倣ゲームを含む医療療法の自動分析によって動機づけられます。
提案手法は、異種運動データ条件を標準化する前処理ステップを組み込んだものである。
自閉症者に対するセラピー支援のための自動ビデオ分析の実際の利用事例について検討した。
論文 参考訳(メタデータ) (2021-02-17T19:41:37Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z) - Multi-Task Recurrent Neural Network for Surgical Gesture Recognition and
Progress Prediction [17.63619129438996]
本稿では,手術動作の同時認識のためのマルチタスクリカレントニューラルネットワークを提案する。
マルチタスクフレームワークでは,手作業によるラベリングやトレーニングを伴わずに,進捗推定による認識性能が向上することが実証された。
論文 参考訳(メタデータ) (2020-03-10T14:28:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。