論文の概要: States of confusion: Eye and Head tracking reveal surgeons' confusion
during arthroscopic surgery
- arxiv url: http://arxiv.org/abs/2106.06261v1
- Date: Fri, 11 Jun 2021 09:22:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-14 22:18:53.350986
- Title: States of confusion: Eye and Head tracking reveal surgeons' confusion
during arthroscopic surgery
- Title(参考訳): 眼と頭部の追跡で関節鏡視下手術中の外科医の混乱が判明
- Authors: Benedikt Hosp, Myat Su Yin, peter Haddawy, Ratthapoom Watcharporas,
paphon Sa-ngasoonsong, Enkelejda Kasneci
- Abstract要約: 関節鏡視下手術における眼球運動と頭部運動の相違について検討した。
94%以上の精度と検出速度0.039秒の精度で,鏡視下手術における外科医の知覚認知過程のオンライン診断・訓練システムに向けたステップである。
- 参考スコア(独自算出の注目度): 3.944269240323356
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: During arthroscopic surgeries, surgeons are faced with challenges like
cognitive re-projection of the 2D screen output into the 3D operating site or
navigation through highly similar tissue. Training of these cognitive processes
takes much time and effort for young surgeons, but is necessary and crucial for
their education. In this study we want to show how to recognize states of
confusion of young surgeons during an arthroscopic surgery, by looking at their
eye and head movements and feeding them to a machine learning model. With an
accuracy of over 94\% and detection speed of 0.039 seconds, our model is a step
towards online diagnostic and training systems for the perceptual-cognitive
processes of surgeons during arthroscopic surgeries.
- Abstract(参考訳): 鏡視下手術では、外科医は3D手術部位に出力される2Dスクリーンの認知的再投影や、非常に類似した組織へのナビゲーションといった課題に直面している。
これらの認知過程の訓練は若い外科医にとって多くの時間と労力を要するが、教育には必要かつ不可欠である。
本研究では, 鏡視下手術における若年者外科医の混乱状態の認識方法について, 眼球運動と頭部運動を観察し, 機械学習モデルに与えることで示す。
精度は94\%以上,検出速度0.039秒以上であり,鏡視下手術中の外科医の知覚認知過程のオンライン診断・訓練システムへの一歩である。
関連論文リスト
- PitVis-2023 Challenge: Workflow Recognition in videos of Endoscopic Pituitary Surgery [46.2901962659261]
The Pituitary Vision (VisVis) 2023 Challengeは、内視鏡下垂体手術のビデオで、コミュニティに認識のステップと計測を課している。
これは、より小さな作業スペースのため、他の最小侵襲の手術と比較しても、ユニークなタスクである。
6つの国にまたがる9チームから18のチームがあり、さまざまなディープラーニングモデルを使用していた。
論文 参考訳(メタデータ) (2024-09-02T11:38:06Z) - EndoGSLAM: Real-Time Dense Reconstruction and Tracking in Endoscopic Surgeries using Gaussian Splatting [53.38166294158047]
EndoGSLAMは鏡視下手術の効率的なアプローチであり、合理化表現と微分ガウス化を統合している。
実験の結果,EndoGSLAMは従来型あるいは神経型SLAMアプローチよりも術中可用性と再建品質のトレードオフが良好であることがわかった。
論文 参考訳(メタデータ) (2024-03-22T11:27:43Z) - Action Recognition in Video Recordings from Gynecologic Laparoscopy [4.002010889177872]
行動認識は腹腔鏡画像解析における多くの応用の前提条件である。
本研究では,CNN-RNNアーキテクチャと,カスタマイズしたトレーニング推論フレームワークの設計と評価を行う。
論文 参考訳(メタデータ) (2023-11-30T16:15:46Z) - End-to-End assessment of AR-assisted neurosurgery systems [0.5892638927736115]
我々は、AR支援型神経外科システムを評価するための異なる手法を分類し、評価手順を体系化する新しい手法を提案する。
その結果, 物理フィードバックによりホログラム変位による誤差を著しく低減できることがわかった。
ホログラムに対する視覚的フィードバックの欠如は、利用者の3D知覚に大きな影響を与えない。
論文 参考訳(メタデータ) (2023-11-03T13:41:44Z) - GLSFormer : Gated - Long, Short Sequence Transformer for Step
Recognition in Surgical Videos [57.93194315839009]
本稿では,シーケンスレベルのパッチから時間的特徴を直接学習するための視覚変換器に基づくアプローチを提案する。
本研究では,白内障手術用ビデオデータセットである白内障-101とD99に対するアプローチを広範に評価し,各種の最先端手法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2023-07-20T17:57:04Z) - Live image-based neurosurgical guidance and roadmap generation using
unsupervised embedding [53.992124594124896]
本稿では,注釈付き脳外科ビデオの大規模なデータセットを活用するライブ画像のみのガイダンスを提案する。
生成されたロードマップは、トレーニングセットの手術で取られた一般的な解剖学的パスをエンコードする。
166例の腹腔鏡下腺摘出術を施行し,本法の有効性について検討した。
論文 参考訳(メタデータ) (2023-03-31T12:52:24Z) - Quantification of Robotic Surgeries with Vision-Based Deep Learning [45.165919577877695]
本稿では,手術中に録画されたビデオのみを対象とする統合型ディープラーニングフレームワークRoboformerを提案する。
我々は,ミニマル侵襲型ロボット手術において,一般的な2種類のステップの4つのビデオベースデータセットに対して,我々の枠組みを検証した。
論文 参考訳(メタデータ) (2022-05-06T06:08:35Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - A Temporal Learning Approach to Inpainting Endoscopic Specularities and
Its effect on Image Correspondence [13.25903945009516]
本稿では,時間的生成的対位ネットワーク(GAN)を用いて,隠蔽解剖学を特異性の下で描くことを提案する。
これは、胃内視鏡(Hyper-Kvasir)の生検データを用いて、完全に教師なしの方法で達成される。
また,3次元再構成とカメラモーション推定の基盤となるコンピュータビジョンタスクにおける本手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-03-31T13:14:00Z) - Differentiating Surgeon Expertise Solely by Eye Movement Features [3.944269240323356]
眼球運動のみを用いて,専門家,4歳住民,3歳住民の分類モデルを提案する。
眼球運動を正しいクラスに分類するために、最小限の機能セットを使用しながら76.46パーセントのロバストな精度を達成しているモデルを示す。
論文 参考訳(メタデータ) (2021-02-11T13:43:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。