論文の概要: Scaling Ultrasound Volumetric Reconstruction via Mobile Augmented Reality
- arxiv url: http://arxiv.org/abs/2602.18500v1
- Date: Tue, 17 Feb 2026 09:59:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.106266
- Title: Scaling Ultrasound Volumetric Reconstruction via Mobile Augmented Reality
- Title(参考訳): 移動体拡張現実を用いた超音波ボリューム再構成のスケーリング
- Authors: Kian Wei Ng, Yujia Gao, Deborah Khoo, Ying Zhen Tan, Chengzheng Mao, Haojie Cheng, Andrew Makmur, Kee Yuan Ngiam, Serene Goh, Eng Tat Khoo,
- Abstract要約: Mobile Augmented Reality Volumetric Ultrasound (MARVUS) は、正確なボリューム評価へのアクセシビリティ向上を目的として設計された資源効率の高いシステムである。
MARVUSは、スケーラブルでコストを意識した方法で、米国のがんスクリーニング、診断、治療計画を強化することができる。
- 参考スコア(独自算出の注目度): 1.8646857014410134
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate volumetric characterization of lesions is essential for oncologic diagnosis, risk stratification, and treatment planning. While imaging modalities such as Computed Tomography provide high-quality 3D data, 2D ultrasound (2D-US) remains the preferred first-line modality for breast and thyroid imaging due to cost, portability, and safety factors. However, volume estimates derived from 2D-US suffer from high inter-user variability even among experienced clinicians. Existing 3D ultrasound (3D-US) solutions use specialized probes or external tracking hardware, but such configurations increase costs and diminish portability, constraining widespread clinical use. To address these limitations, we present Mobile Augmented Reality Volumetric Ultrasound (MARVUS), a resource-efficient system designed to increase accessibility to accurate and reproducible volumetric assessment. MARVUS is interoperable with conventional ultrasound (US) systems, using a foundation model to enhance cross-specialty generalization while minimizing hardware requirements relative to current 3D-US solutions. In a user study involving experienced clinicians performing measurements on breast phantoms, MARVUS yielded a substantial improvement in volume estimation accuracy (mean difference: 0.469 cm3) with reduced inter-user variability (mean difference: 0.417 cm3). Additionally, we prove that augmented reality (AR) visualizations enhance objective performance metrics and clinician-reported usability. Collectively, our findings suggests that MARVUS can enhance US-based cancer screening, diagnostic workflows, and treatment planning in a scalable, cost-conscious, and resource-efficient manner. Usage video demonstration available (https://youtu.be/m4llYcZpqmM).
- Abstract(参考訳): 腫瘍の正確な体積的特徴は、腫瘍診断、リスク層化、治療計画に不可欠である。
Computed Tomographyなどの画像モダリティは高品質な3Dデータを提供するが、2D超音波(2D-US)は、コスト、移植性、安全性などの理由から、乳房および甲状腺イメージングの第一線モダリティとして好まれる。
しかし, 2D-USから得られた容積推定値は, 経験者でも高いユーザ間変動がみられた。
既存の3D超音波(3D-US)ソリューションでは、特殊なプローブや外部追跡ハードウェアが使用されているが、そのような構成によってコストが増加し、移植性が低下し、広く臨床利用が制限される。
これらの制約に対処するため、我々は、正確かつ再現可能なボリューム評価へのアクセシビリティ向上を目的とした資源効率の高いシステムである、Mobile Augmented Reality Volumetric Ultrasound (MARVUS)を提案する。
MARVUSは、従来の超音波(US)システムと相互運用可能であり、現行の3D-USソリューションと比較してハードウェア要件を最小化しながら、クロス特殊性一般化を強化する基礎モデルを使用している。
乳房ファントムの測定を行った経験者を対象としたユーザスタディでは、MARVUSはボリューム推定精度(平均差:0.469 cm3)を大幅に改善し、ユーザ間のばらつきを低減した(平均差:0.417 cm3)。
さらに,拡張現実(AR)の可視化により,客観的なパフォーマンス指標と臨床報告によるユーザビリティが向上することが証明された。
以上より,MARVUSは,米国のがん検診,診断ワークフロー,治療計画を,スケーラブルで費用対効果が高く,資源対効果の高い方法で向上させることができることが示唆された。
使用可能なビデオデモ(https://youtu.be/m4llYcZpqmM)。
関連論文リスト
- MLRecon: Robust Markerless Freehand 3D Ultrasound Reconstruction via Coarse-to-Fine Pose Estimation [8.489758968497188]
MLReconはロバストなマーカーレス3DUS再構成フレームワークで、ドリフト耐性の6Dプローブのポーズトラッキングを提供する。
我々のパイプラインは、視覚誘導型発散検出器によって強化されたプローブの連続的なマーカーレス追跡を可能にする。
実験の結果、MLReconは競合するセンサレスやセンサアシストの手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2026-03-01T08:39:21Z) - DRBD-Mamba for Robust and Efficient Brain Tumor Segmentation with Analytical Insights [54.87947751720332]
脳腫瘍の正確なセグメンテーションは、臨床診断と治療に重要である。
マンバを拠点とするState Space Modelsは、有望なパフォーマンスを示している。
本稿では,計算オーバーヘッドを最小限に抑えながら,マルチスケールの長距離依存関係をキャプチャするマルチ解像度双方向マンバを提案する。
論文 参考訳(メタデータ) (2025-10-16T07:31:21Z) - Accelerating 3D Photoacoustic Computed Tomography with End-to-End Physics-Aware Neural Operators [74.65171736966131]
光音響計算トモグラフィ(PACT)は、光コントラストと超音波分解能を組み合わせることで、光拡散限界を超える深部像を実現する。
現在の実装では、高密度トランスデューサアレイと長い取得時間を必要とし、臨床翻訳を制限している。
本研究では,センサ計測からボリューム再構成まで,逆音響マッピングを直接学習する物理認識モデルであるPanoを紹介する。
論文 参考訳(メタデータ) (2025-09-11T23:12:55Z) - A Novel Framework for Integrating 3D Ultrasound into Percutaneous Liver Tumour Ablation [5.585625844344932]
3D超音波(US)画像検査は, 経皮的肝腫瘍アブレーションの結果に有意な有意な効果を示した。
3D USを治療領域に移行させるには臨床統合が不可欠である。
本稿では,標準アブレーションワークフローに3D USを統合する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-26T11:39:08Z) - ImplicitCell: Resolution Cell Modeling of Joint Implicit Volume Reconstruction and Pose Refinement in Freehand 3D Ultrasound [12.066225199232777]
ImplicitCell は Inlicit Neural Representation (INR) と超音波分解能セルモデルを統合した新しいフレームワークである。
実験結果から, ImplicitCell は既存手法と比較して, 復元アーチファクトを著しく低減し, ボリューム品質を向上することが示された。
論文 参考訳(メタデータ) (2025-03-09T16:40:49Z) - SAMRI-2: A Memory-based Model for Cartilage and Meniscus Segmentation in 3D MRIs of the Knee Joint [0.7879983966759583]
本研究では,メモリベースのVFMを用いた3次元MRIによる軟骨・半月板分割のためのディープラーニング(DL)手法を提案する。
我々はCNNベースの3D-VNetと2つの自動トランスフォーマーベースモデル(SaMRI2DとSaMRI3D)、およびトランスフォーマーベースのプロンプト可能なメモリベースVFM(SAMRI-2)を270例の3D膝MRIで訓練した。
SAMRI-2はHSSで訓練され、他の全てのモデルより優れ、平均5ポイント改善し、最高12ポイント向上した。
論文 参考訳(メタデータ) (2025-02-14T21:18:01Z) - Super-resolution of biomedical volumes with 2D supervision [84.5255884646906]
超解像のための仮設スライス拡散は、生物学的標本のすべての空間次元にわたるデータ生成分布の固有同値性を利用する。
我々は,高解像度2次元画像の高速取得を特徴とするSliceRの組織学的刺激(SRH)への応用に着目する。
論文 参考訳(メタデータ) (2024-04-15T02:41:55Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - HoloPOCUS: Portable Mixed-Reality 3D Ultrasound Tracking, Reconstruction
and Overlay [2.069072041357411]
HoloPOCUSは、米国のリッチな情報を医療現場でユーザーの視界にオーバーレイする複合現実型システムである。
既存のMR-USよりも高精度な追跡パイプラインを検証した。
論文 参考訳(メタデータ) (2023-08-26T09:28:20Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose Estimation of Surgical Instruments [64.59698930334012]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - Moving from 2D to 3D: volumetric medical image classification for rectal
cancer staging [62.346649719614]
術前T2期とT3期を区別することは直腸癌治療における最も困難かつ臨床的に重要な課題である。
直腸MRIでT3期直腸癌からT2を正確に判別するための体積畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-13T07:10:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。