論文の概要: Automated Assessment of Kidney Ureteroscopy Exploration for Training
- arxiv url: http://arxiv.org/abs/2602.15988v1
- Date: Tue, 17 Feb 2026 20:25:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.428769
- Title: Automated Assessment of Kidney Ureteroscopy Exploration for Training
- Title(参考訳): Kidney Ureteroscopy Exploration for Training の自動化評価
- Authors: Fangjie Li, Nicholas Kavoussi, Charan Mohan, Matthieu Chabanas, Jie Ying Wu,
- Abstract要約: そこで本研究では,尿管鏡によるスコープローカライゼーションフレームワークを提案する。
幻の腎臓探索で訓練生が見逃した毛細血管を自動的に識別する。
調査ビデオ15本では,74例中69例が正しく分類された。
- 参考スコア(独自算出の注目度): 0.32622301272834514
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: Kidney ureteroscopic navigation is challenging with a steep learning curve. However, current clinical training has major deficiencies, as it requires one-on-one feedback from experts and occurs in the operating room (OR). Therefore, there is a need for a phantom training system with automated feedback to greatly \revision{expand} training opportunities. Methods: We propose a novel, purely ureteroscope video-based scope localization framework that automatically identifies calyces missed by the trainee in a phantom kidney exploration. We use a slow, thorough, prior exploration video of the kidney to generate a reference reconstruction. Then, this reference reconstruction can be used to localize any exploration video of the same phantom. Results: In 15 exploration videos, a total of 69 out of 74 calyces were correctly classified. We achieve < 4mm camera pose localization error. Given the reference reconstruction, the system takes 10 minutes to generate the results for a typical exploration (1-2 minute long). Conclusion: We demonstrate a novel camera localization framework that can provide accurate and automatic feedback for kidney phantom explorations. We show its ability as a valid tool that enables out-of-OR training without requiring supervision from an expert.
- Abstract(参考訳): 目的:キドニー尿管鏡ナビゲーションは急勾配の学習曲線で困難である。
しかし, 専門医からの1対1のフィードバックが必要であり, 手術室(OR)で発生するため, 現在の臨床研修には大きな欠陥がある。
そのため,自動フィードバックによるファントムトレーニングシステムが必要である。
方法: 本研究は, 臨床研修生が幻の腎臓探索で見逃した症例を自動的に識別する, 純粋に尿管鏡によるスコープローカライゼーションフレームワークを提案する。
私たちは、腎臓のゆっくりとした徹底的な探査ビデオを使用して、基準的再構成を生成します。
そして、この参照再構成を使用して、同じ幻の探査ビデオをローカライズすることができる。
結果: 調査ビデオ15本では, 74例中69例が正しく分類された。
4mmカメラのローカライゼーション誤差を実現する。
参照再構成を前提として、システムは典型的な探査(長さ1-2分)の結果を生成するのに10分を要する。
結語: 腎臓ファントム探索の正確かつ自動的なフィードバックを提供する新しいカメラローカライゼーションフレームワークを実証する。
専門家の監督を必要とせず、OR外のトレーニングを可能にする有効なツールとしての能力を示す。
関連論文リスト
- A benchmark for video-based laparoscopic skill analysis and assessment [1.5734501497837607]
本稿では,4つの腹腔鏡下トレーニングタスクのステレオビデオ記録1270件からなる腹腔鏡下スキル分析・アセスメントデータセットについて紹介する。
各録音には3つの独立したレーダから集約された構造化されたスキル評価と、タスク固有のエラーの有無を示すバイナリラベルがアノテートされる。
ビデオベースのスキルアセスメントとエラー認識のための既存手法と新規手法のベンチマークを容易にするため、各タスクに予め定義されたデータ分割を提供する。
論文 参考訳(メタデータ) (2026-02-10T15:59:19Z) - Multi-Modal Self-Supervised Learning for Surgical Feedback Effectiveness Assessment [66.6041949490137]
そこで本研究では,音声による音声入力とそれに対応する手術映像からの情報を統合して,フィードバックの有効性を予測する手法を提案する。
以上の結果から,手書きフィードバックと手術映像の両方が,訓練者の行動変化を個別に予測できることがわかった。
本研究は,手術フィードバックの自動評価を推進するためのマルチモーダル学習の可能性を示すものである。
論文 参考訳(メタデータ) (2024-11-17T00:13:00Z) - Vision-Based Neurosurgical Guidance: Unsupervised Localization and Camera-Pose Prediction [41.91807060434709]
内視鏡的処置中に自分自身を位置決めすることは、区別可能なテクスチャやランドマークが欠如しているため、問題となることがある。
本稿では,解剖学的認識に基づく深層学習手法を提案する。
論文 参考訳(メタデータ) (2024-05-15T14:09:11Z) - FLex: Joint Pose and Dynamic Radiance Fields Optimization for Stereo Endoscopic Videos [79.50191812646125]
内視鏡的シーンの再構築は、外科手術後の分析から教育訓練まで、様々な医療応用にとって重要な要素である。
変形組織の非常にダイナミックな環境下での移動内視鏡の挑戦的なセットアップに着目する。
複数重重なり合う4次元ニューラルラジアンスフィールド(NeRF)への暗黙的なシーン分離と、再構成とカメラのスクラッチからのポーズを協調的に最適化するプログレッシブ最適化手法を提案する。
これにより、使いやすさが向上し、5000フレーム以上の手術ビデオの処理に間に合うように復元能力を拡張できる。
論文 参考訳(メタデータ) (2024-03-18T19:13:02Z) - A Zero-Shot Reinforcement Learning Strategy for Autonomous Guidewire
Navigation [0.0]
循環器疾患の治療にはガイドワイヤとカテーテルの複雑で困難なナビゲーションが必要である。
これは、患者と臨床医がX線に曝される長い介入につながることが多い。
深層強化学習アプローチは、このタスクを学習する上で有望であり、ロボットによる介入の間、カテーテルナビゲーションを自動化する鍵となる可能性がある。
論文 参考訳(メタデータ) (2024-03-05T08:46:54Z) - Surgment: Segmentation-enabled Semantic Search and Creation of Visual
Question and Feedback to Support Video-Based Surgery Learning [4.509082876666929]
Surgmentは、専門家の外科医が手術記録に基づいたフィードバックで運動を作成するのを助けるシステムだ。
セグメンテーションパイプラインは、外科医が望む視覚的な質問やフィードバックを作成することができる。
11名の外科医による評価研究において、被験者は関心のフレームを特定するための検索・バイ・スケッチ・アプローチを称賛し、結果として得られた画像に基づく質問やフィードバックは高い教育的価値を持つことがわかった。
論文 参考訳(メタデータ) (2024-02-27T21:42:23Z) - Live image-based neurosurgical guidance and roadmap generation using
unsupervised embedding [53.992124594124896]
本稿では,注釈付き脳外科ビデオの大規模なデータセットを活用するライブ画像のみのガイダンスを提案する。
生成されたロードマップは、トレーニングセットの手術で取られた一般的な解剖学的パスをエンコードする。
166例の腹腔鏡下腺摘出術を施行し,本法の有効性について検討した。
論文 参考訳(メタデータ) (2023-03-31T12:52:24Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - Autonomously Navigating a Surgical Tool Inside the Eye by Learning from
Demonstration [28.720332497794292]
本稿では,タスクの専門的なデモンストレーションを模倣する学習を通じて,ツールナビゲーションタスクを自動化することを提案する。
深層ネットワークは、ユーザが指定した目標に記録された視覚サーボに基づいて、網膜上の様々な場所に向かう専門家の軌跡を模倣するように訓練される。
このネットワークは, 物理実験では137ミクロン, シミュレーションでは94ミクロンの範囲内で, 針外科用具を様々な所へ確実に移動可能であることを示す。
論文 参考訳(メタデータ) (2020-11-16T08:30:02Z) - Auto-Rectify Network for Unsupervised Indoor Depth Estimation [119.82412041164372]
ハンドヘルド環境に現れる複雑な自我運動が,学習深度にとって重要な障害であることが確認された。
本稿では,相対回転を除去してトレーニング画像の修正を効果的に行うデータ前処理手法を提案する。
その結果、従来の教師なしSOTA法よりも、難易度の高いNYUv2データセットよりも優れていた。
論文 参考訳(メタデータ) (2020-06-04T08:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。