論文の概要: Sensorless Freehand 3D Ultrasound Reconstruction via Deep Contextual
Learning
- arxiv url: http://arxiv.org/abs/2006.07694v1
- Date: Sat, 13 Jun 2020 18:37:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 21:26:01.065039
- Title: Sensorless Freehand 3D Ultrasound Reconstruction via Deep Contextual
Learning
- Title(参考訳): 深部学習によるセンサレスフリーハンド3次元超音波再構成
- Authors: Hengtao Guo, Sheng Xu, Bradford Wood, Pingkun Yan
- Abstract要約: フリーハンドUSスキャンからの3次元ボリューム再構成の現在の方法は、フレーム毎に空間的位置を提供するために外部追跡装置を必要とする。
本稿では,DCL-Net(Deep contextual learning network)を提案する。このネットワークは,米国フレーム間の画像特徴関係を効率的に活用し,トラッキング装置を使わずに3DUSボリュームを再構築する。
- 参考スコア(独自算出の注目度): 13.844630500061378
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transrectal ultrasound (US) is the most commonly used imaging modality to
guide prostate biopsy and its 3D volume provides even richer context
information. Current methods for 3D volume reconstruction from freehand US
scans require external tracking devices to provide spatial position for every
frame. In this paper, we propose a deep contextual learning network (DCL-Net),
which can efficiently exploit the image feature relationship between US frames
and reconstruct 3D US volumes without any tracking device. The proposed DCL-Net
utilizes 3D convolutions over a US video segment for feature extraction. An
embedded self-attention module makes the network focus on the speckle-rich
areas for better spatial movement prediction. We also propose a novel case-wise
correlation loss to stabilize the training process for improved accuracy.
Highly promising results have been obtained by using the developed method. The
experiments with ablation studies demonstrate superior performance of the
proposed method by comparing against other state-of-the-art methods. Source
code of this work is publicly available at
https://github.com/DIAL-RPI/FreehandUSRecon.
- Abstract(参考訳): 経直腸超音波(US)は前立腺生検を誘導する最も一般的な画像モダリティであり、3Dボリュームはよりリッチな文脈情報を提供する。
フリーハンドusスキャンによる3次元ボリューム再構成のための現在の方法では、フレーム毎に空間位置を提供する外部トラッキングデバイスが必要である。
本稿では,米国フレーム間の画像特徴関係を効率的に活用し,トラッキング装置を使わずに3DUSボリュームを再構築するディープ・コンテクスト学習ネットワーク(DCL-Net)を提案する。
提案したDCL-Netは,USビデオセグメント上の3次元畳み込みを利用して特徴抽出を行う。
組込み自己保持モジュールは、空間移動予測を改善するためにスペックルリッチな領域にネットワークを集中させる。
また,学習過程を安定させて精度を向上する新たなケースワイド相関損失を提案する。
開発した手法を用いて, 高い有望な結果を得た。
アブレーション実験は,他の最先端手法と比較して提案手法の優れた性能を示す。
この作業のソースコードはhttps://github.com/DIAL-RPI/FreehandUSReconで公開されている。
関連論文リスト
- OV-Uni3DETR: Towards Unified Open-Vocabulary 3D Object Detection via Cycle-Modality Propagation [67.56268991234371]
OV-Uni3DETRは、様々なシナリオにおける最先端のパフォーマンスを達成し、既存のメソッドを平均6%以上上回っている。
コードと事前訓練されたモデルは、後にリリースされる。
論文 参考訳(メタデータ) (2024-03-28T17:05:04Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - HoloPOCUS: Portable Mixed-Reality 3D Ultrasound Tracking, Reconstruction
and Overlay [2.069072041357411]
HoloPOCUSは、米国のリッチな情報を医療現場でユーザーの視界にオーバーレイする複合現実型システムである。
既存のMR-USよりも高精度な追跡パイプラインを検証した。
論文 参考訳(メタデータ) (2023-08-26T09:28:20Z) - NeRF-Det: Learning Geometry-Aware Volumetric Representation for
Multi-View 3D Object Detection [65.02633277884911]
提案するNeRF-Detは,RGB画像を入力として室内3次元検出を行う新しい手法である。
提案手法は3次元形状を明示的に推定するため, エンドツーエンドでNeRFを用いて3次元検出性能を向上する。
論文 参考訳(メタデータ) (2023-07-27T04:36:16Z) - 3DVNet: Multi-View Depth Prediction and Volumetric Refinement [68.68537312256144]
3DVNetは、新しいマルチビューステレオ(MVS)深度予測法である。
私たちのキーとなるアイデアは、粗い深度予測を反復的に更新する3Dシーンモデリングネットワークを使用することです。
本手法は, 深度予測と3次元再構成の両指標において, 最先端の精度を超えることを示す。
論文 参考訳(メタデータ) (2021-12-01T00:52:42Z) - 3-Dimensional Deep Learning with Spatial Erasing for Unsupervised
Anomaly Segmentation in Brain MRI [55.97060983868787]
我々は,MRIボリュームと空間消去を組み合わせた空間文脈の増大が,教師なしの異常セグメンテーション性能の向上に繋がるかどうかを検討する。
本稿では,2次元変分オートエンコーダ(VAE)と3次元の相違点を比較し,3次元入力消去を提案し,データセットサイズが性能に与える影響を体系的に検討する。
入力消去による最高の3D VAEは、平均DICEスコアが31.40%となり、2D VAEは25.76%となった。
論文 参考訳(メタデータ) (2021-09-14T09:17:27Z) - Self Context and Shape Prior for Sensorless Freehand 3D Ultrasound
Reconstruction [61.62191904755521]
3DフリーハンドUSは、幅広い範囲とフリーフォームスキャンを提供することで、この問題に対処することを約束している。
既存のディープラーニングベースの手法は、スキルシーケンスの基本ケースのみに焦点を当てている。
複雑なスキルシーケンスを考慮したセンサレスフリーハンドUS再構成手法を提案する。
論文 参考訳(メタデータ) (2021-07-31T16:06:50Z) - Planar 3D Transfer Learning for End to End Unimodal MRI Unbalanced Data
Segmentation [0.0]
本稿では,事前学習した2次元畳み込みニューラルネットワーク重みを平面3次元カーネルにマッピングする手法を提案する。
提案手法は2次元VGG-16から転送されるエンコーダを備えた平面3Dres-u-netネットワークにより検証される。
論文 参考訳(メタデータ) (2020-11-23T17:11:50Z) - 3D B-mode ultrasound speckle reduction using deep learning for 3D
registration applications [8.797635433767423]
筆者らのディープラーニングフレームワークは,従来のフィルタリング手法と比較してスペックル低減において,同様の抑制と平均保存指数(1.066)が得られることを示す。
深層学習モデルを用いたスペックル削減は, 3次元登録性能の向上に寄与することがわかった。
論文 参考訳(メタデータ) (2020-08-03T19:29:59Z) - 3D Self-Supervised Methods for Medical Imaging [7.65168530693281]
本稿では,プロキシタスクの形式で,5種類の自己教師型手法の3次元バージョンを提案する。
提案手法は,未ラベルの3次元画像からニューラルネットワークの特徴学習を容易にし,専門家のアノテーションに必要なコストを削減することを目的としている。
開発したアルゴリズムは、3D Contrastive Predictive Coding, 3D Rotation Prediction, 3D Jigsaw puzzles, Relative 3D patch location, 3D Exemplar Networkである。
論文 参考訳(メタデータ) (2020-06-06T09:56:58Z) - Region Proposal Network with Graph Prior and IoU-Balance Loss for
Landmark Detection in 3D Ultrasound [16.523977092204813]
3D超音波(US)は胎児の成長モニタリングのための詳細な出生前検査を容易にする。
3DUSボリュームを分析するためには、解剖学的ランドマークを正確に同定することが基本である。
我々は3次元顔USボリュームのランドマークを検出するためにオブジェクト検出フレームワークを利用する。
論文 参考訳(メタデータ) (2020-04-01T03:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。