論文の概要: Pose-GuideNet: Automatic Scanning Guidance for Fetal Head Ultrasound from Pose Estimation
- arxiv url: http://arxiv.org/abs/2408.09931v1
- Date: Mon, 19 Aug 2024 12:11:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 16:24:38.650159
- Title: Pose-GuideNet: Automatic Scanning Guidance for Fetal Head Ultrasound from Pose Estimation
- Title(参考訳): Pose-GuideNet: Pose 推定による胎児頭部超音波の自動走査誘導
- Authors: Qianhui Men, Xiaoqing Guo, Aris T. Papageorghiou, J. Alison Noble,
- Abstract要約: 2次元横断的な視点から3Dポーズを推定することで、医療専門家は3D空間をナビゲートできる。
本研究では,フリーハンド2次元超音波による胎児の3次元ポーズ推定がソノグラフィーを誘導し,頭部標準平面の位置を推定する方法について検討する。
- 参考スコア(独自算出の注目度): 13.187011661009459
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D pose estimation from a 2D cross-sectional view enables healthcare professionals to navigate through the 3D space, and such techniques initiate automatic guidance in many image-guided radiology applications. In this work, we investigate how estimating 3D fetal pose from freehand 2D ultrasound scanning can guide a sonographer to locate a head standard plane. Fetal head pose is estimated by the proposed Pose-GuideNet, a novel 2D/3D registration approach to align freehand 2D ultrasound to a 3D anatomical atlas without the acquisition of 3D ultrasound. To facilitate the 2D to 3D cross-dimensional projection, we exploit the prior knowledge in the atlas to align the standard plane frame in a freehand scan. A semantic-aware contrastive-based approach is further proposed to align the frames that are off standard planes based on their anatomical similarity. In the experiment, we enhance the existing assessment of freehand image localization by comparing the transformation of its estimated pose towards standard plane with the corresponding probe motion, which reflects the actual view change in 3D anatomy. Extensive results on two clinical head biometry tasks show that Pose-GuideNet not only accurately predicts pose but also successfully predicts the direction of the fetal head. Evaluations with probe motions further demonstrate the feasibility of adopting Pose-GuideNet for freehand ultrasound-assisted navigation in a sensor-free environment.
- Abstract(参考訳): 2次元断面ビューからの3Dポーズ推定により、医療専門家は3次元空間をナビゲートすることができ、多くの画像誘導放射線学応用において自動ガイダンスを開始することができる。
本研究では,フリーハンド2次元超音波による胎児の3次元ポーズ推定がソノグラフィーを誘導し,頭部標準平面の位置を推定する方法について検討する。
Pose-GuideNetは、フリーハンド2D超音波を3D超音波を取得せずに3D解剖学的アトラスに整列させる新しい2D/3D登録手法である。
2次元から3次元の断面投影を容易にするために,アトラスにおける事前の知識を活用し,標準平面フレームをフリーハンドスキャンで整列させる。
さらに, 解剖学的類似性に基づいて, 標準平面から外れたフレームを整列させる, 意味認識型コントラストベースアプローチが提案されている。
実験では、推定されたポーズの標準面への変換と、3次元解剖学における実際の視点変化を反映したプローブ運動を比較することで、既存の手動画像の局所化の評価を強化する。
Pose-GuideNetはポーズを正確に予測するだけでなく、胎児の頭部の方向も予測する。
プローブ動作による評価は, センサレス環境における自由手動超音波支援ナビゲーションにおいて, Pose-GuideNet が適用可能であることを示す。
関連論文リスト
- Structure-aware World Model for Probe Guidance via Large-scale Self-supervised Pre-train [66.35766658717205]
心エコー法を成功させるには、二次元平面上の構造と三次元空間における平面間の空間的関係を徹底的に理解する必要がある。
心構造を意識した世界モデルを取得するための,大規模自己指導型事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-06-28T08:54:44Z) - Neural Voting Field for Camera-Space 3D Hand Pose Estimation [106.34750803910714]
3次元暗黙表現に基づく1枚のRGB画像からカメラ空間の3Dハンドポーズ推定のための統一的なフレームワークを提案する。
本稿では,カメラフラストラムにおける高密度3次元ポイントワイド投票により,カメラ空間の3次元ハンドポーズを推定する,新しい3次元高密度回帰手法を提案する。
論文 参考訳(メタデータ) (2023-05-07T16:51:34Z) - Ultrasound Plane Pose Regression: Assessing Generalized Pose Coordinates
in the Fetal Brain [9.465965149145559]
我々は,センサを付加することなく,3次元可視化,トレーニング,ガイダンスのための米国の航空機ローカライゼーションシステムを構築することを目指している。
この研究は、胎児の脳をスライスする米国飛行機の6次元(6次元)のポーズを予測する、これまでの研究に基づいています。
トレーニングおよびテストデータにおける登録品質の影響とその後のトレーニングモデルへの影響について検討する。
論文 参考訳(メタデータ) (2023-01-19T21:16:36Z) - Adaptive 3D Localization of 2D Freehand Ultrasound Brain Images [18.997300579859978]
本稿では,3次元解剖学的アトラス内の2次元超音波像を適応的に局所化するフレームワークであるAdLocUIを提案する。
まず、共配列の3D超音波ボリュームからサンプリングした2Dスライスで畳み込みニューラルネットワークをトレーニングし、その位置を予測する。
新規な教師なしサイクル整合性を用いて、2次元自由手超音波画像で微調整する。
論文 参考訳(メタデータ) (2022-09-12T17:59:41Z) - Comparison of Depth Estimation Setups from Stereo Endoscopy and Optical
Tracking for Point Measurements [1.1084983279967584]
最小侵襲の僧帽弁修復を支援するため、赤外追跡スタイラスを用いて弁からの定量的測定を得ることができる。
両座標系を繋ぎ、点を画像面に投影する前提条件であるハンドアイキャリブレーションが必要である。
これに対する補完的なアプローチは、3D座標を得るために、視覚に基づく立体セットを用いて興味のある点を検出し、三角測量することである。
予備的な結果から、3Dランドマーク推定は、手動でラベル付けするか、あるいはディープラーニングによる部分的自動検出によって行われる。
論文 参考訳(メタデータ) (2022-01-26T10:15:46Z) - PONet: Robust 3D Human Pose Estimation via Learning Orientations Only [116.1502793612437]
本稿では,学習向きのみを用いて3次元ポーズを頑健に推定できる新しいPose Orientation Net(PONet)を提案する。
PONetは、局所的な画像証拠を利用して、これらの手足の3D方向を推定し、3Dポーズを復元する。
我々は,Human3.6M,MPII,MPI-INF-3DHP,3DPWを含む複数のデータセットについて評価を行った。
論文 参考訳(メタデータ) (2021-12-21T12:48:48Z) - IGCN: Image-to-graph Convolutional Network for 2D/3D Deformable
Registration [1.2246649738388387]
単一視点2次元投影画像に対する3次元臓器メッシュの変形可能な登録を実現する画像間畳み込みネットワークを提案する。
複数臓器間の関係を考慮に入れた形状予測は, 臨床的に許容できる精度で放射線像からの呼吸運動と変形を予測するのに有用である。
論文 参考訳(メタデータ) (2021-10-31T12:48:37Z) - 3D Reconstruction and Alignment by Consumer RGB-D Sensors and Fiducial
Planar Markers for Patient Positioning in Radiation Therapy [1.7744342894757368]
本稿では,安価な消費者レベルのRGB-Dセンサを用いた迅速かつ安価な患者位置決め法を提案する。
提案手法は,手持ちのRGB-Dセンサから記録された実時間,人工的,自然な視覚的ランドマークを融合する3次元再構成手法に依存する。
論文 参考訳(メタデータ) (2021-03-22T20:20:59Z) - Model-based 3D Hand Reconstruction via Self-Supervised Learning [72.0817813032385]
シングルビューのRGB画像から3Dハンドを再構成することは、様々な手構成と深さのあいまいさのために困難である。
ポーズ, 形状, テクスチャ, カメラ視点を共同で推定できる, 自己教師型3Dハンド再構成ネットワークであるS2HANDを提案する。
初めて手動アノテーションを使わずに、正確な3D手の再構築ネットワークを訓練できることを実証しました。
論文 参考訳(メタデータ) (2021-03-22T10:12:43Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Tattoo tomography: Freehand 3D photoacoustic image reconstruction with
an optical pattern [49.240017254888336]
光音響トモグラフィ(PAT)は、形態学的および機能的組織特性の両方を解決することができる新しいイメージング技術である。
現在の欠点は、従来の2Dプローブによって提供される視野の制限である。
本研究では,外部追跡システムを必要としないPATデータの3次元再構成手法を提案する。
論文 参考訳(メタデータ) (2020-11-10T09:27:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。