論文の概要: Temporal Segmentation of Surgical Sub-tasks through Deep Learning with
Multiple Data Sources
- arxiv url: http://arxiv.org/abs/2002.02921v1
- Date: Fri, 7 Feb 2020 17:49:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 04:35:05.021034
- Title: Temporal Segmentation of Surgical Sub-tasks through Deep Learning with
Multiple Data Sources
- Title(参考訳): 複数音源を用いた深層学習による手術用サブタスクの時間分割
- Authors: Yidan Qin, Sahba Aghajani Pedram, Seyedshams Feyzabadi, Max Allan, A.
Jonathan McLeod, Joel W. Burdick, Mahdi Azizian
- Abstract要約: 本稿では,タスクが進行するにつれて発生する動作や事象に基づいて,統一的な手術状態推定モデルを提案する。
JHU-ISI Gesture and Skill Assessment Working Set(JIGSAWS)と,ロボット内超音波(RIOUS)画像を含むより複雑なデータセットについて検討した。
本モデルでは,89.4%まで優れたフレームワイド状態推定精度を実現し,最先端の手術状態推定モデルを改善する。
- 参考スコア(独自算出の注目度): 14.677001578868872
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many tasks in robot-assisted surgeries (RAS) can be represented by
finite-state machines (FSMs), where each state represents either an action
(such as picking up a needle) or an observation (such as bleeding). A crucial
step towards the automation of such surgical tasks is the temporal perception
of the current surgical scene, which requires a real-time estimation of the
states in the FSMs. The objective of this work is to estimate the current state
of the surgical task based on the actions performed or events occurred as the
task progresses. We propose Fusion-KVE, a unified surgical state estimation
model that incorporates multiple data sources including the Kinematics, Vision,
and system Events. Additionally, we examine the strengths and weaknesses of
different state estimation models in segmenting states with different
representative features or levels of granularity. We evaluate our model on the
JHU-ISI Gesture and Skill Assessment Working Set (JIGSAWS), as well as a more
complex dataset involving robotic intra-operative ultrasound (RIOUS) imaging,
created using the da Vinci Xi surgical system. Our model achieves a superior
frame-wise state estimation accuracy up to 89.4%, which improves the
state-of-the-art surgical state estimation models in both JIGSAWS suturing
dataset and our RIOUS dataset.
- Abstract(参考訳): ロボット補助手術(RAS)における多くのタスクは有限状態機械(FSM)で表され、各状態は行動(針を拾うなど)または観察(出血など)を表す。
このような手術作業の自動化に向けた重要なステップは、現在の手術シーンの時間的知覚であり、FSMの状態をリアルタイムに推定する必要がある。
本研究の目的は,手術が進行するにつれて発生した動作や出来事に基づいて,手術の現況を推定することである。
我々は,Kinematics, Vision, System Eventsなどの複数のデータソースを組み込んだ統合手術状態推定モデルFusion-KVEを提案する。
さらに,代表的特徴や粒度が異なるセグメンテーション状態における異なる状態推定モデルの強みと弱みについて検討する。
我々は,jigsaws(jhu-isi gesture and skill assessment working set)のモデルと,da vinci xi手術システムを用いて作製したロボット術中超音波(rious)画像を用いたより複雑なデータセットの評価を行った。
本モデルは,JIGSAWS縫合データセットとRIOUSデータセットの両方において,最先端の手術状態推定モデルを改善するため,89.4%までのフレームワイズ状態推定精度が向上する。
関連論文リスト
- Realistic Data Generation for 6D Pose Estimation of Surgical Instruments [4.226502078427161]
手術器具の6次元ポーズ推定は,手術操作の自動実行を可能にするために重要である。
家庭や工業環境では、3Dコンピュータグラフィックスソフトウェアで生成された合成データが、アノテーションコストを最小限に抑える代替手段として示されている。
本稿では,大規模・多様なデータセットの自動生成を可能にする外科ロボティクスのシミュレーション環境の改善を提案する。
論文 参考訳(メタデータ) (2024-06-11T14:59:29Z) - BEHAVIOR Vision Suite: Customizable Dataset Generation via Simulation [57.40024206484446]
我々は、コンピュータビジョンモデルの体系的評価のために、完全にカスタマイズされた合成データを生成するためのツールと資産のセットであるBEHAVIOR Vision Suite(BVS)を紹介する。
BVSはシーンレベルで多数の調整可能なパラメータをサポートする。
アプリケーションシナリオを3つ紹介する。
論文 参考訳(メタデータ) (2024-05-15T17:57:56Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - ProcTHOR: Large-Scale Embodied AI Using Procedural Generation [55.485985317538194]
ProcTHORは、Embodied AI環境の手続き的生成のためのフレームワークである。
ナビゲーション、アレンジメント、アーム操作のための6つの具体化されたAIベンチマークに対して、最先端の結果を実証する。
論文 参考訳(メタデータ) (2022-06-14T17:09:35Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Multimodal Semantic Scene Graphs for Holistic Modeling of Surgical
Procedures [70.69948035469467]
カメラビューから3Dグラフを生成するための最新のコンピュータビジョン手法を利用する。
次に,手術手順の象徴的,意味的表現を統一することを目的としたマルチモーダルセマンティックグラフシーン(MSSG)を紹介する。
論文 参考訳(メタデータ) (2021-06-09T14:35:44Z) - Learning Invariant Representation of Tasks for Robust Surgical State
Estimation [39.515036686428836]
外科的タスク不変状態推定ネットワークであるStiseNetを提案する。
StiseNetは、RASデータセット固有の外科的テクニックや手術環境のバリエーションの影響を最小限に抑える。
3つのデータセット上での最先端状態推定法より優れていることを示す。
論文 参考訳(メタデータ) (2021-02-18T02:32:50Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - daVinciNet: Joint Prediction of Motion and Surgical State in
Robot-Assisted Surgery [13.928484202934651]
本稿では,ロボット動作と手術状態予測のためのエンドツーエンドのデュアルタスクモデルdaVinciNetを提案する。
我々のモデルでは、最大93.85%の短期(0.5s)と82.11%の長期(2s)の予測精度、1.07mmの短期および5.62mmの長期軌道予測誤差が達成される。
論文 参考訳(メタデータ) (2020-09-24T20:28:06Z) - Aggregating Long-Term Context for Learning Laparoscopic and
Robot-Assisted Surgical Workflows [40.48632897750319]
本稿では,タスク固有のネットワーク表現を利用した時間的ネットワーク構造を提案する。
腹腔鏡下胆嚢摘出術を施行した。
論文 参考訳(メタデータ) (2020-09-01T20:29:14Z) - Multi-Task Recurrent Neural Network for Surgical Gesture Recognition and
Progress Prediction [17.63619129438996]
本稿では,手術動作の同時認識のためのマルチタスクリカレントニューラルネットワークを提案する。
マルチタスクフレームワークでは,手作業によるラベリングやトレーニングを伴わずに,進捗推定による認識性能が向上することが実証された。
論文 参考訳(メタデータ) (2020-03-10T14:28:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。