論文の概要: States of confusion: Eye and Head tracking reveal surgeons' confusion
during arthroscopic surgery
- arxiv url: http://arxiv.org/abs/2106.06261v1
- Date: Fri, 11 Jun 2021 09:22:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-14 22:18:53.350986
- Title: States of confusion: Eye and Head tracking reveal surgeons' confusion
during arthroscopic surgery
- Title(参考訳): 眼と頭部の追跡で関節鏡視下手術中の外科医の混乱が判明
- Authors: Benedikt Hosp, Myat Su Yin, peter Haddawy, Ratthapoom Watcharporas,
paphon Sa-ngasoonsong, Enkelejda Kasneci
- Abstract要約: 関節鏡視下手術における眼球運動と頭部運動の相違について検討した。
94%以上の精度と検出速度0.039秒の精度で,鏡視下手術における外科医の知覚認知過程のオンライン診断・訓練システムに向けたステップである。
- 参考スコア(独自算出の注目度): 3.944269240323356
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: During arthroscopic surgeries, surgeons are faced with challenges like
cognitive re-projection of the 2D screen output into the 3D operating site or
navigation through highly similar tissue. Training of these cognitive processes
takes much time and effort for young surgeons, but is necessary and crucial for
their education. In this study we want to show how to recognize states of
confusion of young surgeons during an arthroscopic surgery, by looking at their
eye and head movements and feeding them to a machine learning model. With an
accuracy of over 94\% and detection speed of 0.039 seconds, our model is a step
towards online diagnostic and training systems for the perceptual-cognitive
processes of surgeons during arthroscopic surgeries.
- Abstract(参考訳): 鏡視下手術では、外科医は3D手術部位に出力される2Dスクリーンの認知的再投影や、非常に類似した組織へのナビゲーションといった課題に直面している。
これらの認知過程の訓練は若い外科医にとって多くの時間と労力を要するが、教育には必要かつ不可欠である。
本研究では, 鏡視下手術における若年者外科医の混乱状態の認識方法について, 眼球運動と頭部運動を観察し, 機械学習モデルに与えることで示す。
精度は94\%以上,検出速度0.039秒以上であり,鏡視下手術中の外科医の知覚認知過程のオンライン診断・訓練システムへの一歩である。
関連論文リスト
- Action Recognition in Video Recordings from Gynecologic Laparoscopy [4.002010889177872]
行動認識は腹腔鏡画像解析における多くの応用の前提条件である。
本研究では,CNN-RNNアーキテクチャと,カスタマイズしたトレーニング推論フレームワークの設計と評価を行う。
論文 参考訳(メタデータ) (2023-11-30T16:15:46Z) - End-to-End assessment of AR-assisted neurosurgery systems [0.5892638927736115]
我々は、AR支援型神経外科システムを評価するための異なる手法を分類し、評価手順を体系化する新しい手法を提案する。
その結果, 物理フィードバックによりホログラム変位による誤差を著しく低減できることがわかった。
ホログラムに対する視覚的フィードバックの欠如は、利用者の3D知覚に大きな影響を与えない。
論文 参考訳(メタデータ) (2023-11-03T13:41:44Z) - Automatic registration with continuous pose updates for marker-less
surgical navigation in spine surgery [52.63271687382495]
本研究では, 腰部脊柱管固定術の登録問題を, 無放射線で自動的に解決するアプローチを提案する。
深部神経ネットワークは、腰椎を分割し、その方向を同時に予測するように訓練され、前手術モデルに対する最初のポーズが得られた。
拡張現実ベースのナビゲーションシステムとの統合により、直感的な外科的ガイダンスが提供される。
論文 参考訳(メタデータ) (2023-08-05T16:26:41Z) - GLSFormer : Gated - Long, Short Sequence Transformer for Step
Recognition in Surgical Videos [57.93194315839009]
本稿では,シーケンスレベルのパッチから時間的特徴を直接学習するための視覚変換器に基づくアプローチを提案する。
本研究では,白内障手術用ビデオデータセットである白内障-101とD99に対するアプローチを広範に評価し,各種の最先端手法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2023-07-20T17:57:04Z) - Live image-based neurosurgical guidance and roadmap generation using
unsupervised embedding [53.992124594124896]
本稿では,注釈付き脳外科ビデオの大規模なデータセットを活用するライブ画像のみのガイダンスを提案する。
生成されたロードマップは、トレーニングセットの手術で取られた一般的な解剖学的パスをエンコードする。
166例の腹腔鏡下腺摘出術を施行し,本法の有効性について検討した。
論文 参考訳(メタデータ) (2023-03-31T12:52:24Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Quantification of Robotic Surgeries with Vision-Based Deep Learning [45.165919577877695]
本稿では,手術中に録画されたビデオのみを対象とする統合型ディープラーニングフレームワークRoboformerを提案する。
我々は,ミニマル侵襲型ロボット手術において,一般的な2種類のステップの4つのビデオベースデータセットに対して,我々の枠組みを検証した。
論文 参考訳(メタデータ) (2022-05-06T06:08:35Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - A Temporal Learning Approach to Inpainting Endoscopic Specularities and
Its effect on Image Correspondence [13.25903945009516]
本稿では,時間的生成的対位ネットワーク(GAN)を用いて,隠蔽解剖学を特異性の下で描くことを提案する。
これは、胃内視鏡(Hyper-Kvasir)の生検データを用いて、完全に教師なしの方法で達成される。
また,3次元再構成とカメラモーション推定の基盤となるコンピュータビジョンタスクにおける本手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-03-31T13:14:00Z) - Using Human Gaze For Surgical Activity Recognition [0.40611352512781856]
手術映像における活動認識のための空間的時間的注意機構を備えた人間の視線の利用を提案する。
我々のモデルは、I3Dベースのアーキテクチャで構成され、3D畳み込みを用いて時間的特徴を学習し、人間の視線を用いて注意マップを学習する。
論文 参考訳(メタデータ) (2022-03-09T14:28:00Z) - Differentiating Surgeon Expertise Solely by Eye Movement Features [3.944269240323356]
眼球運動のみを用いて,専門家,4歳住民,3歳住民の分類モデルを提案する。
眼球運動を正しいクラスに分類するために、最小限の機能セットを使用しながら76.46パーセントのロバストな精度を達成しているモデルを示す。
論文 参考訳(メタデータ) (2021-02-11T13:43:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。