論文の概要: RapidVol: Rapid Reconstruction of 3D Ultrasound Volumes from Sensorless 2D Scans
- arxiv url: http://arxiv.org/abs/2404.10766v1
- Date: Tue, 16 Apr 2024 17:50:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 15:45:38.696673
- Title: RapidVol: Rapid Reconstruction of 3D Ultrasound Volumes from Sensorless 2D Scans
- Title(参考訳): RapidVol: センサレス2Dスキャンによる3次元超音波ボリュームの高速再構成
- Authors: Mark C. Eid, Pak-Hei Yeung, Madeleine K. Wyburd, João F. Henriques, Ana I. L. Namburete,
- Abstract要約: 本稿では,スライス・ツー・ボリューム超音波再構成を高速化するニューラル表現フレームワークであるRapidVolを提案する。
地上の真理(または推定)の3D位置と向き(目的)を持つ2次元超音波スキャンのセットは、完全な3D再構成を形成するのに必要なもの全てである。
従来の手法と比較して,提案手法は3倍高速で46%精度が高く,不正確なポーズが与えられた場合,より堅牢である。
- 参考スコア(独自算出の注目度): 12.837508334426529
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Two-dimensional (2D) freehand ultrasonography is one of the most commonly used medical imaging modalities, particularly in obstetrics and gynaecology. However, it only captures 2D cross-sectional views of inherently 3D anatomies, losing valuable contextual information. As an alternative to requiring costly and complex 3D ultrasound scanners, 3D volumes can be constructed from 2D scans using machine learning. However this usually requires long computational time. Here, we propose RapidVol: a neural representation framework to speed up slice-to-volume ultrasound reconstruction. We use tensor-rank decomposition, to decompose the typical 3D volume into sets of tri-planes, and store those instead, as well as a small neural network. A set of 2D ultrasound scans, with their ground truth (or estimated) 3D position and orientation (pose) is all that is required to form a complete 3D reconstruction. Reconstructions are formed from real fetal brain scans, and then evaluated by requesting novel cross-sectional views. When compared to prior approaches based on fully implicit representation (e.g. neural radiance fields), our method is over 3x quicker, 46% more accurate, and if given inaccurate poses is more robust. Further speed-up is also possible by reconstructing from a structural prior rather than from scratch.
- Abstract(参考訳): 2次元のフリーハンド超音波検査は、特に産婦人科や産婦人科において、最もよく用いられる医療画像の1つである。
しかし、これは本質的に3D解剖学の2次元断面ビューのみを捉え、貴重な文脈情報を失う。
高価な複雑な3D超音波スキャナを必要とする代わりに、機械学習を用いて2Dスキャンから3Dボリュームを構築することができる。
しかし、これは通常、長い計算時間を必要とする。
本稿では,スライス・ツー・ボリューム超音波再構成を高速化するニューラル表現フレームワークであるRapidVolを提案する。
テンソルランク分解を用いて、典型的な3次元体積を3次元平面の集合に分解し、代わりに小さなニューラルネットワークを格納する。
地上の真理(または推定)の3D位置と向き(目的)を持つ2次元超音波スキャンのセットは、完全な3D再構成を形成するのに必要なもの全てである。
再建は、実際の胎児脳スキャンから形成され、その後、新しい横断的なビューを要求することによって評価される。
完全に暗黙的な表現(例えばニューラルラディアンス場)に基づく従来の手法と比較すると,提案手法はより3倍速く,精度は46%高く,不正確なポーズがより堅牢である。
また、スクラッチからではなく構造体から再構築することで、さらなるスピードアップが可能となる。
関連論文リスト
- DuoLift-GAN:Reconstructing CT from Single-view and Biplanar X-Rays with Generative Adversarial Networks [1.3812010983144802]
本稿では,DuoLift Generative Adversarial Networks (DuoLift-GAN)を紹介する。
これらの3D出力は統合された3D特徴マップにマージされ、完全な3D胸部ボリュームにデコードされ、よりリッチな3D情報キャプチャを可能にする。
論文 参考訳(メタデータ) (2024-11-12T17:11:18Z) - NeRF-MAE: Masked AutoEncoders for Self-Supervised 3D Representation Learning for Neural Radiance Fields [57.617972778377215]
提案手法は,RGB画像から有効な3D表現を生成する方法を示す。
我々は、この表現を、提案した擬似RGBデータに基づいて、180万枚以上の画像で事前訓練する。
我々は,NeRFの自己教師型プレトレーニングであるNeRF-MAE(NeRF-MAE)を目覚ましいスケールで実施し,様々な3Dタスクの性能向上を実現した。
論文 参考訳(メタデータ) (2024-04-01T17:59:55Z) - Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Adaptive 3D Localization of 2D Freehand Ultrasound Brain Images [18.997300579859978]
本稿では,3次元解剖学的アトラス内の2次元超音波像を適応的に局所化するフレームワークであるAdLocUIを提案する。
まず、共配列の3D超音波ボリュームからサンプリングした2Dスライスで畳み込みニューラルネットワークをトレーニングし、その位置を予測する。
新規な教師なしサイクル整合性を用いて、2次元自由手超音波画像で微調整する。
論文 参考訳(メタデータ) (2022-09-12T17:59:41Z) - Super Images -- A New 2D Perspective on 3D Medical Imaging Analysis [0.0]
トレーニング中に3次元知識を効率的に埋め込んで3次元データを扱うための,シンプルで効果的な2次元手法を提案する。
本手法は3次元画像にスライスを並べて超高分解能画像を生成する。
2次元ネットワークのみを利用した3次元ネットワークを実現する一方で、モデルの複雑さはおよそ3倍に減少する。
論文 参考訳(メタデータ) (2022-05-05T09:59:03Z) - ImplicitVol: Sensorless 3D Ultrasound Reconstruction with Deep Implicit
Representation [13.71137201718831]
本研究の目的は, 深い暗示表現を持つ2次元自由手超音波画像の集合から, 3次元ボリュームのセンサレス再構成を実現することである。
3次元体積を離散ボクセル格子として表現する従来の方法とは対照的に、連続函数のゼロレベル集合としてパラメータ化することでそうする。
提案モデルでは,インプリシットボル(ImplicitVol)が入力として2Dスキャンと推定位置を3Dで抽出し,推定した3D位置を共同で再現し,3Dボリュームの完全な再構築を学習する。
論文 参考訳(メタデータ) (2021-09-24T17:59:18Z) - FCOS3D: Fully Convolutional One-Stage Monocular 3D Object Detection [78.00922683083776]
一般的な2D検出器をこの3Dタスクで動作させることは簡単ではない。
本報告では,完全畳み込み型単段検出器を用いた手法を用いてこの問題を考察する。
私たちのソリューションは、NeurIPS 2020のnuScenes 3D検出チャレンジのすべてのビジョンのみの方法の中で1位を獲得します。
論文 参考訳(メタデータ) (2021-04-22T09:35:35Z) - 3D-to-2D Distillation for Indoor Scene Parsing [78.36781565047656]
大規模3次元データリポジトリから抽出した3次元特徴を有効活用し,RGB画像から抽出した2次元特徴を向上する手法を提案する。
まず,事前学習した3Dネットワークから3D知識を抽出して2Dネットワークを監督し,トレーニング中の2D特徴からシミュレーションされた3D特徴を学習する。
次に,2次元の正規化方式を設計し,2次元特徴と3次元特徴のキャリブレーションを行った。
第3に,非ペアの3dデータを用いたトレーニングのフレームワークを拡張するために,意味を意識した対向的トレーニングモデルを設計した。
論文 参考訳(メタデータ) (2021-04-06T02:22:24Z) - 3D Probabilistic Segmentation and Volumetry from 2D projection images [10.32519161805588]
X線撮影は迅速で安価で、最前線のケアアセスメントや術中リアルタイムイメージングに有用である。
プロジェクティブな情報損失に悩まされており、多くの診断バイオマーカーがベースとなっている重要な情報を欠いている。
本稿では,2次元画像モダリティから3次元容積像を再構成する確率的手法について検討する。
論文 参考訳(メタデータ) (2020-06-23T08:00:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。