論文の概要: Patient4D: Temporally Consistent Patient Body Mesh Recovery from Monocular Operating Room Video
- arxiv url: http://arxiv.org/abs/2603.17178v1
- Date: Tue, 17 Mar 2026 22:10:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.423377
- Title: Patient4D: Temporally Consistent Patient Body Mesh Recovery from Monocular Operating Room Video
- Title(参考訳): 患者4D : 単眼手術室ビデオから一時的に体メッシュを回復する
- Authors: Mingxiao Tu, Hoijoon Jung, Alireza Moghadam, Andre Kyme, Jinman Kim,
- Abstract要約: 患者4Dはステーションに拘束された再建パイプラインであり、以前の固定性を利用する。
患者4Dは0.75の平均IoUを達成し、最高のベースラインに比べて故障フレームを30.5%から1.3%に削減した。
本研究は, 臨床ARシナリオにおいて, 固定性前駆体を利用したモノクローナル再構築を著しく改善できることを示唆するものである。
- 参考スコア(独自算出の注目度): 9.229366844390803
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recovering a dense 3D body mesh from monocular video remains challenging under occlusion from draping and continuously moving camera viewpoints. This configuration arises in surgical augmented reality (AR), where an anesthetized patient lies under surgical draping while a surgeon's head-mounted camera continuously changes viewpoint. Existing human mesh recovery (HMR) methods are typically trained on upright, moving subjects captured from relatively stable cameras, leading to performance degradation under such conditions. To address this, we present Patient4D, a stationarity-constrained reconstruction pipeline that explicitly exploits the stationarity prior. The pipeline combines image-level foundation models for perception with lightweight geometric mechanisms that enforce temporal consistency across frames. Two key components enable robust reconstruction: Pose Locking, which anchors pose parameters using stable keyframes, and Rigid Fallback, which recovers meshes under severe occlusion through silhouette-guided rigid alignment. Together, these mechanisms stabilize predictions while remaining compatible with off-the-shelf HMR models. We evaluate Patient4D on 4,680 synthetic surgical sequences and three public HMR video benchmarks. Under surgical drape occlusion, Patient4D achieves a 0.75 mean IoU, reducing failure frames from 30.5% to 1.3% compared to the best baseline. Our findings demonstrate that exploiting stationarity priors can substantially improve monocular reconstruction in clinical AR scenarios.
- Abstract(参考訳): モノクロビデオから高密度の3Dボディメッシュを復元することは、ドラップや連続的なカメラ視点の排除の下では、依然として困難である。
この構成は、外科的拡張現実(AR)において生じ、麻酔を受けた患者が外科的ドレープの下に置かれ、外科医の頭部に装着されたカメラが視点を連続的に変化させる。
既存のヒューマンメッシュリカバリ(HMR)法は、通常、比較的安定したカメラから捕獲された被写体を直立させ、そのような条件下での性能劣化を引き起こす。
そこで本論文では, 既往の静止度を明示的に活用した, 静止度に制約のある再建パイプラインであるPatent4Dを提案する。
このパイプラインは、知覚のためのイメージレベルの基礎モデルと、フレーム間の時間的一貫性を強制する軽量な幾何学的メカニズムを組み合わせる。
安定的なキーフレームを使用してパラメータをアンカーするPose Lockingと、シルエットガイドによる厳格なアライメントを通じて、厳密な閉塞下でメッシュを復元するRigid Fallbackだ。
これらのメカニズムは、既製のHMRモデルと互換性を維持しながら予測を安定化させる。
4,680の外科的シークエンスと3つのHMRビデオベンチマークによる患者4Dの評価を行った。
外科的ドレープ閉塞下では、患者4Dは0.75の平均IoUを達成し、障害フレームは最良ベースラインに比べて30.5%から1.3%に減少する。
本研究は, 臨床ARシナリオにおいて, 固定性前駆体を利用したモノクローナル再構築を著しく改善できることを示唆するものである。
関連論文リスト
- SurgCUT3R: Surgical Scene-Aware Continuous Understanding of Temporal 3D Representation [20.17317715120012]
SurgCUT3Rは、統一的な3D再構成モデルを外科領域に適用する体系的なフレームワークである。
まず,公開ステレオ手術データセットを利用するデータ生成パイプラインを開発する。
第2に,擬似地下構造を幾何学的自己補正と組み合わせたハイブリッド型監視戦略を提案する。
第3に,長期にわたる手術映像のポーズドリフトを効果的に蓄積するために,2つの専門モデルを用いた階層型推論フレームワークを導入する。
論文 参考訳(メタデータ) (2026-03-07T01:13:18Z) - ArtHOI: Articulated Human-Object Interaction Synthesis by 4D Reconstruction from Video Priors [51.06020148149403]
ビデオ先行画像からの4D再構成による人-物間相互作用合成のための最初のゼロショットフレームワークであるArtHOIを紹介する。
ArtHOIは、ビデオベースの生成と幾何学的認識の再構築をブリッジし、セマンティックアライメントと物理的基盤の両方のインタラクションを生成する。
論文 参考訳(メタデータ) (2026-03-04T17:58:04Z) - Diff2DGS: Reliable Reconstruction of Occluded Surgical Scenes via 2D Gaussian Splatting [10.70948053935438]
Diff2DGSは,閉鎖型手術シーンの信頼性3次元再構成のための新しい2段階フレームワークである。
第1段階では、時間的先行性を持つ拡散型ビデオモジュールは、空間的時間的整合性の高い楽器によって遮蔽された組織を塗布する。
第2段階では, 動的組織変形と解剖学的形状を捉えるために, 学習可能な変形モデル (LDM) を用いて2次元ガウススティング (2DGS) を適用した。
Diff2DGSは外観と幾何学の両方において最先端のアプローチより優れ、38.02dBのPSNRに達する
論文 参考訳(メタデータ) (2026-02-20T16:14:21Z) - Towards Geometry-Aware and Motion-Guided Video Human Mesh Recovery [60.51998732898099]
HMRMambaは3Dヒューマンメッシュリカバリのための新しいパラダイムである。
構造状態空間モデル(Structured State Space Models)をその効率性と長距離モデリングに利用した先駆者である。
まず、新しいデュアルスキャンのMambaアーキテクチャを特徴とするGeometry-Aware Lifting Moduleについて述べる。
論文 参考訳(メタデータ) (2026-01-29T08:05:02Z) - SAM-Body4D: Training-Free 4D Human Body Mesh Recovery from Videos [53.227781131348856]
Human Mesh Recoveryは、2Dの観察から3Dのポーズと形状を再構築することを目的としている。
近年のSAM 3D Bodyのような画像ベースHMR法は,線内画像に対して強靭性を実現している。
ビデオからの時間的一貫した閉塞性HMRのためのトレーニングフリーフレームワークSAM-Body4Dを提案する。
論文 参考訳(メタデータ) (2025-12-09T09:37:31Z) - CPT-4DMR: Continuous sPatial-Temporal Representation for 4D-MRI Reconstruction [11.238319012891324]
呼吸運動を1次元代理信号による滑らかで連続的な変形とみなす神経機構を導入する。
提案手法は, 処理時間を5時間程度から15分程度に短縮し, 効率を大幅に向上させる。
従来の方法に比べて優れた性能を示し,4次元放射線治療計画やリアルタイム適応治療への応用の可能性を示す。
論文 参考訳(メタデータ) (2025-09-22T21:18:26Z) - CryoFastAR: Fast Cryo-EM Ab Initio Reconstruction Made Easy [58.86576215228903]
我々はCryo-EMノイズ画像から直接ポーズを予測できる最初の幾何学的基礎モデルであるCryoFastARを紹介した。
CryoFastARは、マルチビュー機能と、大規模シミュレーションされたCryo-EMデータに現実的なノイズとCTF変調を統合することで、ポーズ推定精度と一般化を向上する。
論文 参考訳(メタデータ) (2025-06-06T08:32:32Z) - Endo3R: Unified Online Reconstruction from Dynamic Monocular Endoscopic Video [35.241054116681426]
Endo3Rは、単眼手術ビデオからのオンラインスケール一貫性再構築のための統合された3D基盤モデルである。
我々のモデルは,オフライン最適化なしで,グローバルに整列したポイントマップ,スケール一貫性のあるビデオ深度,カメラパラメータを予測してタスクを統一する。
論文 参考訳(メタデータ) (2025-04-04T06:05:22Z) - 3D Vessel Reconstruction from Sparse-View Dynamic DSA Images via Vessel Probability Guided Attenuation Learning [79.60829508459753]
現在の商用デジタルサブトラクション・アンジオグラフィー(DSA)システムは通常、再構築を行うために数百のスキャンビューを要求する。
スパース・ビューDSA画像のダイナミックな血流と不十分な入力は,3次元血管再建作業において重要な課題である。
本稿では,時間に依存しない容器確率場を用いてこの問題を効果的に解くことを提案する。
論文 参考訳(メタデータ) (2024-05-17T11:23:33Z) - FLex: Joint Pose and Dynamic Radiance Fields Optimization for Stereo Endoscopic Videos [79.50191812646125]
内視鏡的シーンの再構築は、外科手術後の分析から教育訓練まで、様々な医療応用にとって重要な要素である。
変形組織の非常にダイナミックな環境下での移動内視鏡の挑戦的なセットアップに着目する。
複数重重なり合う4次元ニューラルラジアンスフィールド(NeRF)への暗黙的なシーン分離と、再構成とカメラのスクラッチからのポーズを協調的に最適化するプログレッシブ最適化手法を提案する。
これにより、使いやすさが向上し、5000フレーム以上の手術ビデオの処理に間に合うように復元能力を拡張できる。
論文 参考訳(メタデータ) (2024-03-18T19:13:02Z) - A Quantitative Evaluation of Dense 3D Reconstruction of Sinus Anatomy
from Monocular Endoscopic Video [8.32570164101507]
内視鏡的シーケンスと光学的トラッキングを用いた洞再建のための自己教師型アプローチの定量的解析を行った。
以上の結果から, 生成した復元は解剖学的に高い一致を示し, 平均点間誤差は0.91mmであった。
ポーズと深さ推定の不正確さがこの誤りに等しく寄与し、より短い軌跡を持つ局所的に一貫したシーケンスがより正確な再構成をもたらすことを確認した。
論文 参考訳(メタデータ) (2023-10-22T17:11:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。