論文の概要: EXR: An Interactive Immersive EHR Visualization in Extended Reality
- arxiv url: http://arxiv.org/abs/2512.05438v1
- Date: Fri, 05 Dec 2025 05:28:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.90841
- Title: EXR: An Interactive Immersive EHR Visualization in Extended Reality
- Title(参考訳): EXR: 拡張現実感における対話型没入型EHR可視化
- Authors: Benoit Marteau, Shaun Q. Y. Tan, Jieru Li, Andrew Hornback, Yishan Zhong, Shaunna Wang, Christian Lowson, Jason Woloff, Joshua M. Pahys, Steven W. Hwang, Coleman Hilton, May D. Wang,
- Abstract要約: 本稿では電子健康記録(EHR)の没入型インタラクティブ可視化のための拡張現実感(XR)プラットフォームの設計と実装について述べる。
このシステムは、構造化データと非構造化データの両方を共有された3D環境に視覚化することで、従来の2Dインターフェースを超えて、直感的な探索とリアルタイムコラボレーションを可能にする。
- 参考スコア(独自算出の注目度): 1.3924182869344135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents the design and implementation of an Extended Reality (XR) platform for immersive, interactive visualization of Electronic Health Records (EHRs). The system extends beyond conventional 2D interfaces by visualizing both structured and unstructured patient data into a shared 3D environment, enabling intuitive exploration and real-time collaboration. The modular infrastructure integrates FHIR-based EHR data with volumetric medical imaging and AI-generated segmentation, ensuring interoperability with modern healthcare systems. The platform's capabilities are demonstrated using synthetic EHR datasets and computed tomography (CT)-derived spine models processed through an AI-powered segmentation pipeline. This work suggests that such integrated XR solutions could form the foundation for next-generation clinical decision-support tools, where advanced data infrastructures are directly accessible in an interactive and spatially rich environment.
- Abstract(参考訳): 本稿では,電子健康記録(EHR)の没入型インタラクティブ可視化のための拡張現実感(XR)プラットフォームの設計と実装について述べる。
このシステムは、構造化データと非構造化データの両方を共有された3D環境に視覚化することで、従来の2Dインターフェースを超えて、直感的な探索とリアルタイムコラボレーションを可能にする。
モジュラーインフラストラクチャは、FHIRベースのEHRデータとボリューム医療イメージングとAI生成セグメンテーションを統合し、現代の医療システムとの相互運用性を保証する。
このプラットフォームの能力は、AI駆動のセグメンテーションパイプラインで処理された合成EHRデータセットとCT(Computed Tomography)由来のスピンモデルを使用して実証されている。
この研究は、このような統合されたXRソリューションが、インタラクティブで空間的にリッチな環境で、高度なデータインフラストラクチャに直接アクセス可能な次世代の臨床的決定支援ツールの基盤となることを示唆している。
関連論文リスト
- Integrating Genomics into Multimodal EHR Foundation Models [56.31910745104141]
本稿では,ポリジェニックリスクスコア(PRS)を基本データモダリティとして統合した,革新的なEHR基盤モデルを提案する。
このフレームワークは、臨床データと遺伝子前置詞の複雑な関係を学習することを目的としている。
このアプローチは、病気の予測、積極的な健康管理、リスク階層化、パーソナライズされた治療戦略に対する新たな洞察を解放するために重要である。
論文 参考訳(メタデータ) (2025-10-24T15:56:40Z) - Self-Supervised Anatomical Consistency Learning for Vision-Grounded Medical Report Generation [61.350584471060756]
医用画像の臨床的に正確な記述を作成することを目的とした医用レポート生成。
本稿では, 自己監督型解剖学的一貫性学習(SS-ACL)を提案し, 生成された報告を対応する解剖学的領域と整合させる。
SS-ACLは、ヒト解剖学の不変のトップダウン包摂構造にインスパイアされた階層的な解剖学的グラフを構築する。
論文 参考訳(メタデータ) (2025-09-30T08:59:06Z) - CEHR-XGPT: A Scalable Multi-Task Foundation Model for Electronic Health Records [9.583050730170557]
CEHR-XGPTは、ERHRデータの汎用基盤モデルである。
特徴表現、ゼロショット予測、合成データ生成の3つの重要な機能を統合する。
3つのタスクすべてに対して強力なパフォーマンスを示し、外部データセットに効果的に一般化する。
論文 参考訳(メタデータ) (2025-09-03T18:50:03Z) - Beyond the Desktop: XR-Driven Segmentation with Meta Quest 3 and MX Ink [1.7758191385707351]
本研究では,解剖学的CTスキャンのための拡張現実(XR)ベースのセグメンテーションツールの有用性と臨床応用性について検討した。
本研究では,2次元および3次元の医用画像データとリアルタイムに対話できる没入型インタフェースを,カスタマイズ可能なワークスペースで開発する。
公立頭蓋顔面CTデータセットを用いたユーザスタディでは、このツールの生存可能性を示し、医療応用の期待される範囲内で、システムユーザビリティ尺度(SUS)のスコア66を達成した。
論文 参考訳(メタデータ) (2025-06-05T10:25:46Z) - Federated Learning for Coronary Artery Plaque Detection in Atherosclerosis Using IVUS Imaging: A Multi-Hospital Collaboration [8.358846277772779]
経皮的冠動脈インターベンション(PCI)における血管内超音波(IVUS)画像の従来的解釈は時間集約的かつ矛盾する。
多段階セグメンテーションアーキテクチャを持つ並列2次元U-Netモデルを開発した。
0.706のDice similarity Coefficient (DSC) は、プラークを効果的に識別し、リアルタイムで円形の境界を検出する。
論文 参考訳(メタデータ) (2024-12-19T13:06:28Z) - Automated Fusion of Multimodal Electronic Health Records for Better
Medical Predictions [48.0590120095748]
本稿では,多様な入力モダリティと融合戦略を符号化する最適なモデルアーキテクチャを自動検索する,AutoFMという新しいニューラルネットワーク探索フレームワークを提案する。
我々は実世界のマルチモーダルEHRデータと予測タスクについて徹底的な実験を行い、その結果、我々のフレームワークが既存の最先端手法よりも大幅な性能向上を実現していることを示す。
論文 参考訳(メタデータ) (2024-01-20T15:14:14Z) - Three-dimensional Bone Image Synthesis with Generative Adversarial
Networks [2.499907423888049]
本研究は,高分解能医用量を生成するために,3次元生成対向ネットワーク(GAN)を効率的に訓練できることを実証する。
GANインバージョンは3次元設定のために実装され、モデル解釈可能性に関する広範な研究に使用される。
論文 参考訳(メタデータ) (2023-10-26T08:08:17Z) - DeepMediX: A Deep Learning-Driven Resource-Efficient Medical Diagnosis
Across the Spectrum [15.382184404673389]
この作業では,この課題に大きく対処する,画期的な,リソース効率の高いモデルである textttDeepMediX が紹介されている。
MobileNetV2アーキテクチャ上に構築されたDeepMediXは、脳MRIスキャンと皮膚がん画像の分類に長けている。
DeepMediXの設計にはフェデレートラーニングの概念も含まれている。
論文 参考訳(メタデータ) (2023-07-01T12:30:58Z) - fMRI from EEG is only Deep Learning away: the use of interpretable DL to
unravel EEG-fMRI relationships [68.8204255655161]
多チャンネル脳波データからいくつかの皮質下領域の活性を回復するための解釈可能な領域基底解を提案する。
我々は,皮質下核の血行動態信号の頭皮脳波予測の空間的・時間的パターンを復元する。
論文 参考訳(メタデータ) (2022-10-23T15:11:37Z) - Multimodal Semantic Scene Graphs for Holistic Modeling of Surgical
Procedures [70.69948035469467]
カメラビューから3Dグラフを生成するための最新のコンピュータビジョン手法を利用する。
次に,手術手順の象徴的,意味的表現を統一することを目的としたマルチモーダルセマンティックグラフシーン(MSSG)を紹介する。
論文 参考訳(メタデータ) (2021-06-09T14:35:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。