論文の概要: Enhanced Landmark Detection Model in Pelvic Fluoroscopy using 2D/3D Registration Loss
- arxiv url: http://arxiv.org/abs/2511.21575v1
- Date: Wed, 26 Nov 2025 16:50:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:59.204527
- Title: Enhanced Landmark Detection Model in Pelvic Fluoroscopy using 2D/3D Registration Loss
- Title(参考訳): 2D/3Dレジストレーション損失を用いた骨盤鏡におけるランドマーク検出モデル
- Authors: Chou Mo, Yehyun Suh, J. Ryan Martin, Daniel Moyer,
- Abstract要約: U-Netランドマーク予測モデルのトレーニングに2D/3Dランドマーク登録を組み込んだ新しいフレームワークを提案する。
実際の術中条件下では,ベースラインのU-Net,Pose Estimation Lossで訓練したU-Net,Pose Estimation Lossで微調整したU-Netのランドマーク検出精度を比較して,性能差を解析した。
- 参考スコア(独自算出の注目度): 1.6420503030062876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated landmark detection offers an efficient approach for medical professionals to understand patient anatomic structure and positioning using intra-operative imaging. While current detection methods for pelvic fluoroscopy demonstrate promising accuracy, most assume a fixed Antero-Posterior view of the pelvis. However, orientation often deviates from this standard view, either due to repositioning of the imaging unit or of the target structure itself. To address this limitation, we propose a novel framework that incorporates 2D/3D landmark registration into the training of a U-Net landmark prediction model. We analyze the performance difference by comparing landmark detection accuracy between the baseline U-Net, U-Net trained with Pose Estimation Loss, and U-Net fine-tuned with Pose Estimation Loss under realistic intra-operative conditions where patient pose is variable.
- Abstract(参考訳): 自動化されたランドマーク検出は、患者解剖学的構造と術中画像を用いた位置決めを理解するために、医療専門家に効果的なアプローチを提供する。
骨盤透視の現在の検出法は有望な精度を示すが、ほとんどの場合骨盤の固定された前方視を仮定する。
しかし、画像ユニットの再配置やターゲット構造自体の配置によって、向きはしばしばこの標準的視点から逸脱する。
この制限に対処するため,U-Netランドマーク予測モデルのトレーニングに2D/3Dランドマーク登録を組み込んだ新しいフレームワークを提案する。
患者ポーズが変動する現実的な術中条件下で, ポース推定損失で訓練したベースラインU-Net, ポース推定損失で訓練したU-Netと, ポース推定損失で微調整したU-Netのランドマーク検出精度を比較して, 性能差を解析した。
関連論文リスト
- BronchOpt : Vision-Based Pose Optimization with Fine-Tuned Foundation Models for Accurate Bronchoscopy Navigation [6.915058920280426]
術中内視鏡視と術前CT解剖の2D-3D登録のための視覚ベースのポーズ最適化フレームワークを提案する。
細調整されたモダリティおよびドメイン不変エンコーダは、実際の内視鏡的RGBフレームとCTレンダリング深度マップとの直接的な類似性を実現する。
本モデルでは, 平均翻訳誤差2.65mm, 回転誤差0.19radを実現し, 高精度かつ安定な局所化を示す。
論文 参考訳(メタデータ) (2025-11-12T15:58:05Z) - EndoSfM3D: Learning to 3D Reconstruct Any Endoscopic Surgery Scene using Self-supervised Foundation Model [2.8913847481700667]
内視鏡下手術シーンの3次元再構築は,シーン認識の向上,AR可視化の実現,画像誘導手術におけるコンテキスト認識意思決定支援に重要な役割を担っている。
内在キャリブレーションは、不安定性の制約や、連続ズームと望遠鏡回転を備えた特殊な内視鏡の使用によって妨げられる。
本稿では, 奥行き, ポーズ, 内在性予測に, 奥行きV2(DA2)モデルを適用することで, 内在的パラメータ推定を自己教師付き単眼深度推定フレームワークに統合する。
提案手法はSCAREDおよびC3VD公開データセット上で検証され,最近の状態と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2025-10-25T16:39:04Z) - Landmark-Free Preoperative-to-Intraoperative Registration in Laparoscopic Liver Resection [50.388465935739376]
術前の3Dモデルを術中2Dフレームにオーバーレイすることで肝臓の空間解剖を明瞭に把握し,より高い手術成功率を達成することができる。
既存の登録法は解剖学的ランドマークに大きく依存しており、2つの大きな制限に直面している。
本稿では,効果的な自己教師型学習を生かした,目覚ましくない術前・術中登録フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-21T14:55:57Z) - Intraoperative Registration by Cross-Modal Inverse Neural Rendering [61.687068931599846]
クロスモーダル逆ニューラルレンダリングによる神経外科手術における術中3D/2Dレジストレーションのための新しいアプローチを提案する。
本手法では,暗黙の神経表現を2つの構成要素に分離し,術前および術中における解剖学的構造について検討した。
臨床症例の振り返りデータを用いて本法の有効性を検証し,現在の登録基準を満たした状態での最先端の検査成績を示した。
論文 参考訳(メタデータ) (2024-09-18T13:40:59Z) - Intraoperative 2D/3D Image Registration via Differentiable X-ray Rendering [5.617649111108429]
DiffPoseは、患者固有のシミュレーションと微分可能な物理ベースのレンダリングを利用して、手動でラベル付けされたデータに頼ることなく正確な2D/3D登録を実現する自己教師型アプローチである。
DiffPoseは手術用データセット全体の術速でサブミリ精度を達成し、既存の教師なしの手法を桁違いに改善し、教師付きベースラインよりも優れています。
論文 参考訳(メタデータ) (2023-12-11T13:05:54Z) - Robust Landmark-based Stent Tracking in X-ray Fluoroscopy [10.917460255497227]
単一ステントトラッキングのためのエンドツーエンドのディープラーニングフレームワークを提案する。
U-Netベースのランドマーク検出、ResNetベースのステント提案、機能抽出の3つの階層モジュールで構成されている。
実験により,本手法は最先端のポイントベース追跡モデルと比較して,検出精度が有意に向上していることが示された。
論文 参考訳(メタデータ) (2022-07-20T14:20:03Z) - Uncertainty-Aware Adaptation for Self-Supervised 3D Human Pose
Estimation [70.32536356351706]
本稿では、2つの出力ヘッドを2つの異なる構成にサブスクライブする共通のディープネットワークバックボーンを構成するMPP-Netを紹介する。
ポーズと関節のレベルで予測の不確実性を定量化するための適切な尺度を導出する。
本稿では,提案手法の総合評価を行い,ベンチマークデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2022-03-29T07:14:58Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - Tattoo tomography: Freehand 3D photoacoustic image reconstruction with
an optical pattern [49.240017254888336]
光音響トモグラフィ(PAT)は、形態学的および機能的組織特性の両方を解決することができる新しいイメージング技術である。
現在の欠点は、従来の2Dプローブによって提供される視野の制限である。
本研究では,外部追跡システムを必要としないPATデータの3次元再構成手法を提案する。
論文 参考訳(メタデータ) (2020-11-10T09:27:56Z) - Appearance Learning for Image-based Motion Estimation in Tomography [60.980769164955454]
トモグラフィー画像では、取得した信号に擬似逆フォワードモデルを適用することにより、解剖学的構造を再構成する。
患者の動きは、復元過程における幾何学的アライメントを損なうため、運動アーティファクトが生じる。
本研究では,スキャン対象から独立して剛性運動の構造を認識する外観学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:49:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。