論文の概要: Multisensory extended reality applications offer benefits for volumetric biomedical image analysis in research and medicine
- arxiv url: http://arxiv.org/abs/2311.03986v2
- Date: Fri, 14 Jun 2024 11:23:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 19:43:29.829141
- Title: Multisensory extended reality applications offer benefits for volumetric biomedical image analysis in research and medicine
- Title(参考訳): 多感性拡張現実感の応用は、研究・医学におけるバイオメディカル画像解析に有用である
- Authors: Kathrin Krieger, Jan Egger, Jens Kleesiek, Matthias Gunzer, Jianxu Chen,
- Abstract要約: 高解像度ボリューム画像からの3Dデータは、現代医学における診断と治療の中心的な資源である。
近年の研究では、視覚深度知覚と触覚を持つ3次元画像の知覚に拡張現実(XR)を用いたが、制限的な触覚デバイスを用いた。
本研究では, バイオメディカル画像の専門家24名を対象に, 3次元医用形状を探索した。
- 参考スコア(独自算出の注目度): 2.46537907738351
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D data from high-resolution volumetric imaging is a central resource for diagnosis and treatment in modern medicine. While the fast development of AI enhances imaging and analysis, commonly used visualization methods lag far behind. Recent research used extended reality (XR) for perceiving 3D images with visual depth perception and touch but used restrictive haptic devices. While unrestricted touch benefits volumetric data examination, implementing natural haptic interaction with XR is challenging. The research question is whether a multisensory XR application with intuitive haptic interaction adds value and should be pursued. In a study, 24 experts for biomedical images in research and medicine explored 3D medical shapes with 3 applications: a multisensory virtual reality (VR) prototype using haptic gloves, a simple VR prototype using controllers, and a standard PC application. Results of standardized questionnaires showed no significant differences between all application types regarding usability and no significant difference between both VR applications regarding presence. Participants agreed to statements that VR visualizations provide better depth information, using the hands instead of controllers simplifies data exploration, the multisensory VR prototype allows intuitive data exploration, and it is beneficial over traditional data examination methods. While most participants mentioned manual interaction as best aspect, they also found it the most improvable. We conclude that a multisensory XR application with improved manual interaction adds value for volumetric biomedical data examination. We will proceed with our open-source research project ISH3DE (Intuitive Stereoptic Haptic 3D Data Exploration) to serve medical education, therapeutic decisions, surgery preparations, or research data analysis.
- Abstract(参考訳): 高解像度ボリューム画像からの3Dデータは、現代医学における診断と治療の中心的な資源である。
AIの急速な開発は画像と分析を強化するが、一般的に使われている可視化手法はずっと遅れている。
近年の研究では、視覚深度知覚と触覚を持つ3次元画像の知覚に拡張現実(XR)を用いたが、制限的な触覚デバイスを用いた。
制限のないタッチはボリュームデータ検査の恩恵を受けるが、XRとの自然な触覚相互作用を実装することは困難である。
研究課題は、直感的な触覚相互作用を持つ多感覚XRアプリケーションが価値を付加し、追求すべきかどうかである。
研究・医学のバイオメディカル画像の専門家24人が、触覚手袋を用いた多感覚バーチャルリアリティー(VR)プロトタイプ、コントローラーを用いたシンプルなVRプロトタイプ、標準PCアプリケーションという3つの応用で3D医療形態を調査した。
標準化されたアンケートの結果,ユーザビリティに関するすべてのアプリケーションタイプ間に有意差は認められず,VRアプリケーションと存在に関する有意差は認められなかった。
参加者は、VRヴィジュアライゼーションがデータ探索を単純化するコントローラの代わりに手を使って、より深い情報を提供するという声明に同意し、多感なVRプロトタイプは直感的なデータ探索を可能にし、従来のデータ検査方法よりも有益である。
ほとんどの参加者は手動インタラクションを最高の側面として言及したが、最も即効性があることにも気付きました。
手動操作を改良した多感性XRアプリケーションは, バイオメディカルデータ検査に有用である。
ISH3DE(Intuitive Stereoptic Haptic 3D Data Exploration)は、医療教育、治療決定、手術準備、研究データ分析を支援するためのオープンソースの研究プロジェクトである。
関連論文リスト
- 3D-CT-GPT: Generating 3D Radiology Reports through Integration of Large Vision-Language Models [51.855377054763345]
本稿では,VQAに基づく医用視覚言語モデルである3D-CT-GPTについて紹介する。
パブリックデータセットとプライベートデータセットの両方の実験により、3D-CT-GPTはレポートの正確さと品質という点で既存の手法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-09-28T12:31:07Z) - Brain3D: Generating 3D Objects from fMRI [76.41771117405973]
被験者のfMRIデータを入力として利用する新しい3Dオブジェクト表現学習手法であるBrain3Dを設計する。
我々は,人間の視覚系の各領域の異なる機能的特徴を,我々のモデルが捉えていることを示す。
予備評価は、Brain3Dがシミュレーションシナリオで障害した脳領域を正常に識別できることを示唆している。
論文 参考訳(メタデータ) (2024-05-24T06:06:11Z) - Tremor Reduction for Accessible Ray Based Interaction in VR Applications [0.0]
多くの従来の2Dインタフェースのインタラクション方法は、入力機構にほとんど変更を加えることなく、VR空間で直接動作するように変換されている。
本稿では,低域通過フィルタを用いてユーザ入力ノイズの正規化を行い,光線による相互作用におけるモータの細かな要求を緩和する手法を提案する。
論文 参考訳(メタデータ) (2024-05-12T17:07:16Z) - Thelxinoë: Recognizing Human Emotions Using Pupillometry and Machine Learning [0.0]
本研究は,現実的かつ感情的に共鳴するタッチインタラクションのための複数のセンサデータを統合することで,VR体験の向上を目的とした,Thelxino"eフレームワークに大きく貢献する。
我々の発見は、没入的でインタラクティブなVR環境を開発するための新しい道を開き、バーチャルタッチ技術の将来の進歩への道を開いた。
論文 参考訳(メタデータ) (2024-03-27T21:14:17Z) - AI-Enhanced Virtual Reality in Medicine: A Comprehensive Survey [16.66549936852184]
本稿では、医療・サービスにおけるAIによるVR応用の急成長分野を包括的に検討する。
系統分類を導入することで、関連する技術と応用を慎重に3つの明確に定義されたカテゴリに分類する。
この分類は、医療領域でAIによって駆動されるVRが果たす様々な役割を構造化された探索を可能にする。
論文 参考訳(メタデータ) (2024-02-05T15:24:13Z) - ScanERU: Interactive 3D Visual Grounding based on Embodied Reference
Understanding [67.21613160846299]
Embodied Reference Understanding (ERU) はこの懸念に対して最初に設計されている。
ScanERUと呼ばれる新しいデータセットは、このアイデアの有効性を評価するために構築されている。
論文 参考訳(メタデータ) (2023-03-23T11:36:14Z) - Video4MRI: An Empirical Study on Brain Magnetic Resonance Image
Analytics with CNN-based Video Classification Frameworks [60.42012344842292]
3次元CNNモデルが磁気共鳴画像(MRI)解析の分野を支配している。
本稿では,アルツハイマー病とパーキンソン病の認識の4つのデータセットを実験に利用した。
効率の面では、ビデオフレームワークは3D-CNNモデルよりも5%から11%、トレーニング可能なパラメータは50%から66%少ない。
論文 参考訳(メタデータ) (2023-02-24T15:26:31Z) - VRContour: Bringing Contour Delineations of Medical Structures Into
Virtual Reality [16.726748230138696]
コントゥーリングは放射線療法(RT)治療計画において必須のステップである。
今日のコンツーリングソフトウェアは2Dディスプレイでしか動作せず、直感的でなく、高いタスク負荷を必要とする。
本稿では,VRContourを紹介するとともに,放射線オンコロジーのためのコンツーリングを効果的にVRに持ち込む方法について検討する。
論文 参考訳(メタデータ) (2022-10-21T23:22:21Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - DMD: A Large-Scale Multi-Modal Driver Monitoring Dataset for Attention
and Alertness Analysis [54.198237164152786]
視覚は運転監視システム(DMS)の最も豊かで費用対効果の高い技術である
十分に大規模で包括的なデータセットの欠如は、DMS開発の進展のボトルネックとなっている。
本稿では,実運転シナリオとシミュレーション運転シナリオを含む広範囲なデータセットであるドライバモニタリングデータセット(DMD)を紹介する。
論文 参考訳(メタデータ) (2020-08-27T12:33:54Z) - A Markerless Deep Learning-based 6 Degrees of Freedom PoseEstimation for
with Mobile Robots using RGB Data [3.4806267677524896]
本稿では,拡張現実デバイス上でリアルタイムな3Dオブジェクトローカライゼーションを実現するために,アートニューラルネットワークの状態をデプロイする手法を提案する。
本研究では,2次元入力のみを用いて物体の3次元ポーズを高速かつ正確に抽出する高速な2次元検出手法に着目する。
2D画像の6Dアノテーションとして,私たちの知る限り,最初のオープンソースツールであるアノテーションツールを開発した。
論文 参考訳(メタデータ) (2020-01-16T09:13:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。