論文の概要: Beyond the Desktop: XR-Driven Segmentation with Meta Quest 3 and MX Ink
- arxiv url: http://arxiv.org/abs/2506.04858v1
- Date: Thu, 05 Jun 2025 10:25:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.659883
- Title: Beyond the Desktop: XR-Driven Segmentation with Meta Quest 3 and MX Ink
- Title(参考訳): Beyond the Desktop: Meta Quest 3とMX InkによるXR駆動セグメンテーション
- Authors: Lisle Faray de Paiva, Gijs Luijten, Ana Sofia Ferreira Santos, Moon Kim, Behrus Puladi, Jens Kleesiek, Jan Egger,
- Abstract要約: 本研究では,解剖学的CTスキャンのための拡張現実(XR)ベースのセグメンテーションツールの有用性と臨床応用性について検討した。
本研究では,2次元および3次元の医用画像データとリアルタイムに対話できる没入型インタフェースを,カスタマイズ可能なワークスペースで開発する。
公立頭蓋顔面CTデータセットを用いたユーザスタディでは、このツールの生存可能性を示し、医療応用の期待される範囲内で、システムユーザビリティ尺度(SUS)のスコア66を達成した。
- 参考スコア(独自算出の注目度): 1.7758191385707351
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Medical imaging segmentation is essential in clinical settings for diagnosing diseases, planning surgeries, and other procedures. However, manual annotation is a cumbersome and effortful task. To mitigate these aspects, this study implements and evaluates the usability and clinical applicability of an extended reality (XR)-based segmentation tool for anatomical CT scans, using the Meta Quest 3 headset and Logitech MX Ink stylus. We develop an immersive interface enabling real-time interaction with 2D and 3D medical imaging data in a customizable workspace designed to mitigate workflow fragmentation and cognitive demands inherent to conventional manual segmentation tools. The platform combines stylus-driven annotation, mirroring traditional pen-on-paper workflows, with instant 3D volumetric rendering. A user study with a public craniofacial CT dataset demonstrated the tool's foundational viability, achieving a System Usability Scale (SUS) score of 66, within the expected range for medical applications. Participants highlighted the system's intuitive controls (scoring 4.1/5 for self-descriptiveness on ISONORM metrics) and spatial interaction design, with qualitative feedback highlighting strengths in hybrid 2D/3D navigation and realistic stylus ergonomics. While users identified opportunities to enhance task-specific precision and error management, the platform's core workflow enabled dynamic slice adjustment, reducing cognitive load compared to desktop tools. Results position the XR-stylus paradigm as a promising foundation for immersive segmentation tools, with iterative refinements targeting haptic feedback calibration and workflow personalization to advance adoption in preoperative planning.
- Abstract(参考訳): 医療画像のセグメンテーションは、疾患の診断、手術計画、その他の手順に不可欠である。
しかし、手動のアノテーションは面倒で面倒な作業です。
これらの側面を緩和するために,Meta Quest 3ヘッドセットとLogitech MX Inkスタイラスを用いて,拡張現実(XR)ベースの解剖学的CTスキャンのためのセグメンテーションツールの有用性と臨床応用性を評価した。
ワークフローの断片化と従来の手動セグメンテーションツールに固有の認知的要求を緩和するために設計された、カスタマイズ可能なワークスペースにおいて、2次元および3次元の医用画像データとリアルタイムに対話できる没入型インタフェースを開発する。
このプラットフォームにはスタイラス駆動のアノテーションが組み込まれており、従来のペン・オン・ペーパーのワークフローとインスタント3Dボリュームレンダリングを反映している。
公立頭蓋顔面CTデータセットを用いたユーザスタディでは、このツールの基礎的生存性を示し、医療応用の期待される範囲内で、システムユーザビリティ尺度(SUS)のスコア66を達成した。
参加者はシステムの直感的な制御(ISONORMメトリクスの自己記述性4.1/5)と空間的相互作用設計を強調し、質的なフィードバックはハイブリッド2D/3Dナビゲーションとリアルなスタイラスエルゴノミクスの強みを強調した。
ユーザーはタスク固有の精度とエラー管理を強化する機会を見出したが、プラットフォームのコアワークフローは動的スライス調整を可能にし、デスクトップツールと比較して認知負荷を低減した。
その結果,XR-stylusパラダイムは,触覚フィードバックのキャリブレーションとワークフローのパーソナライゼーションをターゲットとした,没入型セグメンテーションツールの有望な基盤として位置づけられた。
関連論文リスト
- nnLandmark: A Self-Configuring Method for 3D Medical Landmark Detection [35.41030755599218]
この研究は3D医療ランドマーク検出のための自己構成型ディープラーニングフレームワークであるnnLandmarkを紹介している。
nnLandmarkは手動のパラメータチューニングの必要性を排除し、アウト・オブ・ボックスのユーザビリティを提供する。
下顎臼歯部CTデータセット(MML)に1.5mmの放射平均誤差(MRE)、脳MRIデータセット(AFIDs)に1.2mmの解剖学的画像を含む2つの公的データセットにまたがる最先端の精度を実現する。
nnLandmarkは、3Dランドマーク検出のための信頼性の高いベースラインを確立し、解剖学的局在の研究を支援している
論文 参考訳(メタデータ) (2025-04-09T09:53:39Z) - Advanced XR-Based 6-DOF Catheter Tracking System for Immersive Cardiac Intervention Training [37.69303106863453]
本稿では, 心内心エコー法(ICE)カテーテルのリアルタイム3次元追跡と可視化のための新しいシステムを提案する。
カスタム3Dプリントされたセットアップは、カテーテルのバイプレーンビデオをキャプチャし、特殊なコンピュータビジョンアルゴリズムは、その3D軌跡を再構築する。
システムのデータは、Meta Quest 3 XRヘッドセットを通じてレンダリングされる、インタラクティブなUnityベースの環境に統合される。
論文 参考訳(メタデータ) (2024-11-04T21:05:40Z) - Clairvoyance: A Pipeline Toolkit for Medical Time Series [95.22483029602921]
時系列学習は、データ駆動の*クリニカルな意思決定支援のパンとバターである*
Clairvoyanceは、ソフトウェアツールキットとして機能する、統合されたエンドツーエンドのオートMLフレンドリなパイプラインを提案する。
Clairvoyanceは、臨床時系列MLのための包括的で自動化可能なパイプラインの生存可能性を示す最初のものである。
論文 参考訳(メタデータ) (2023-10-28T12:08:03Z) - Multi-task Learning with 3D-Aware Regularization [55.97507478913053]
本稿では,画像エンコーダから抽出した特徴を共有3D特徴空間に投影することで,複数のタスクをインタフェースする構造化3D認識正規化器を提案する。
提案手法はアーキテクチャ非依存であり,従来のマルチタスクバックボーンにプラグインすることで,性能を向上できることを示す。
論文 参考訳(メタデータ) (2023-10-02T08:49:56Z) - DEEPBEAS3D: Deep Learning and B-Spline Explicit Active Surfaces [3.560949684583438]
畳み込みニューラルネットワーク(CNN)からB-スプライン明示型アクティブサーフェス(BEAS)へのセグメンテーションを表現する対話型セグメンテーションフレームワークの新規な3次元拡張を提案する。
BEASは、セグメンテーションを3D空間で滑らかにし、解剖学的妥当性を高め、ユーザが正確に3D表面を編集できるようにする。
実験の結果,1) 提案したフレームワークは, 表面の輪郭を明示的に制御し, 2) NASA-TLX指数で計算した作業負荷をVOCALに比べて30%削減し, 3) ユーザ時間をVOCALより70%(170秒)短縮した。
論文 参考訳(メタデータ) (2023-09-05T15:54:35Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose Estimation of Surgical Instruments [64.59698930334012]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - HMD-EgoPose: Head-Mounted Display-Based Egocentric Marker-Less Tool and
Hand Pose Estimation for Augmented Surgical Guidance [0.0]
HMD-EgoPoseは、手動とオブジェクトのポーズ推定のための単発学習に基づくアプローチである。
マーカーレスハンドと手術器具のポーズトラッキングのためのベンチマークデータセット上で,最先端の性能を示す。
論文 参考訳(メタデータ) (2022-02-24T04:07:34Z) - Multimodal Semantic Scene Graphs for Holistic Modeling of Surgical
Procedures [70.69948035469467]
カメラビューから3Dグラフを生成するための最新のコンピュータビジョン手法を利用する。
次に,手術手順の象徴的,意味的表現を統一することを目的としたマルチモーダルセマンティックグラフシーン(MSSG)を紹介する。
論文 参考訳(メタデータ) (2021-06-09T14:35:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。