論文の概要: Best Foot Forward: Robust Foot Reconstruction in-the-wild
- arxiv url: http://arxiv.org/abs/2502.20511v1
- Date: Thu, 27 Feb 2025 20:40:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:42:08.935719
- Title: Best Foot Forward: Robust Foot Reconstruction in-the-wild
- Title(参考訳): Best Foot Forward:ロバスト・フット・コンストラクション・イン・ザ・ワイルド
- Authors: Kyle Fogarty, Jing Yang, Chayan Kumar Patodi, Aadi Bhanti, Steven Chacko, Cengiz Oztireli, Ujwal Bonde,
- Abstract要約: 本稿では,SfM (Structure-from-Motion) 再構成を改良した新しいエンドツーエンドパイプラインを提案する。
まず、SE(3)の正準化と視点予測モジュールを用いてスキャンアライメントの曖昧さを解消し、次に、合成強化された点雲で訓練された注意に基づくネットワークを通して、欠落した幾何学を完成させる。
臨床的に検証された解剖学的忠実度を保ちながら,再建指標の最先端性を実現する。
- 参考スコア(独自算出の注目度): 2.059210052546126
- License:
- Abstract: Accurate 3D foot reconstruction is crucial for personalized orthotics, digital healthcare, and virtual fittings. However, existing methods struggle with incomplete scans and anatomical variations, particularly in self-scanning scenarios where user mobility is limited, making it difficult to capture areas like the arch and heel. We present a novel end-to-end pipeline that refines Structure-from-Motion (SfM) reconstruction. It first resolves scan alignment ambiguities using SE(3) canonicalization with a viewpoint prediction module, then completes missing geometry through an attention-based network trained on synthetically augmented point clouds. Our approach achieves state-of-the-art performance on reconstruction metrics while preserving clinically validated anatomical fidelity. By combining synthetic training data with learned geometric priors, we enable robust foot reconstruction under real-world capture conditions, unlocking new opportunities for mobile-based 3D scanning in healthcare and retail.
- Abstract(参考訳): 正確な3D足の再構築は、パーソナライズされた整形、デジタルヘルスケア、バーチャルフィッティングに不可欠である。
しかしながら、既存の手法では、特にユーザモビリティが制限されたセルフスキャンシナリオにおいて、不完全なスキャンや解剖学的変異に苦慮しているため、アーチやヒールのような領域のキャプチャが困難である。
本稿では,SfM (Structure-from-Motion) 再構成を改良した新しいエンドツーエンドパイプラインを提案する。
まず、SE(3)の正準化と視点予測モジュールを用いてスキャンアライメントの曖昧さを解消し、次に、合成強化された点雲で訓練された注意に基づくネットワークを通して、欠落した幾何学を完成させる。
臨床的に検証された解剖学的忠実度を保ちながら,再建指標の最先端性を実現する。
学習した幾何学的先行データと合成トレーニングデータを組み合わせることで、実世界の捕獲条件下での堅牢な足の再構築を可能にし、医療や小売におけるモバイルベースの3Dスキャンの新たな機会を解放する。
関連論文リスト
- FOCUS - Multi-View Foot Reconstruction From Synthetically Trained Dense Correspondences [23.644116579294547]
人足再建の具体的な症例について検討する。
マルチビューRGB画像からリッチなピクセル単位の幾何学的手がかりを抽出する。
本研究は, 現状の再建の質を, 数点の視点で達成できることを実証する。
論文 参考訳(メタデータ) (2025-02-10T11:36:45Z) - CrossSDF: 3D Reconstruction of Thin Structures From Cross-Sections [23.35977941611922]
CrossSDFは平面輪郭から発生する2次元符号付き距離から3次元符号付き距離場を抽出する新しい手法である。
提案手法は, 従来の手法よりも大幅に改善され, 薄型構造を効果的に再構築し, 正確な3次元モデルを生成する。
論文 参考訳(メタデータ) (2024-12-05T12:38:18Z) - EndoSparse: Real-Time Sparse View Synthesis of Endoscopic Scenes using Gaussian Splatting [39.60431471170721]
内視鏡画像からの生体組織の3次元再構成は, 様々な重要な下流外科的応用を3D機能で解き放つ鍵となる。
既存の手法では、ビュー合成に様々な高度なニューラルレンダリング技術を採用しているが、スパースな観察しかできない場合には、正確な3D表現の復元に苦慮することが多い。
再建過程において,複数の基盤モデルから事前の知識を活用するフレームワークを提案し,それをtextitEndoSparse と呼ぶ。
論文 参考訳(メタデータ) (2024-07-01T07:24:09Z) - Domain adaptation strategies for 3D reconstruction of the lumbar spine using real fluoroscopy data [9.21828361691977]
本研究は整形外科手術における手術ナビゲーション導入における重要な障害に対処するものである。
これは、少数の蛍光画像から脊椎の3次元解剖モデルを生成するためのアプローチを示す。
これまでの合成データに基づく研究の精度に匹敵する84%のF1スコアを達成しました。
論文 参考訳(メタデータ) (2024-01-29T10:22:45Z) - Anatomy-guided domain adaptation for 3D in-bed human pose estimation [62.3463429269385]
3次元人間のポーズ推定は臨床モニタリングシステムにおいて重要な要素である。
ラベル付きソースからシフトしたラベル付きターゲットドメインにモデルを適応させる新しいドメイン適応方式を提案する。
我々の手法は、様々な最先端のドメイン適応法より一貫して優れています。
論文 参考訳(メタデータ) (2022-11-22T11:34:51Z) - NeurAR: Neural Uncertainty for Autonomous 3D Reconstruction [64.36535692191343]
暗黙の神経表現はオフラインの3D再構成において魅力的な結果を示しており、オンラインSLAMシステムの可能性も最近示している。
本論文は,1)新しい表現に基づく視点計画の質を評価するための基準を求めること,2)手作りではなく,異なる場面に一般化可能なデータから基準を学習すること,の2つの課題に対処する。
本手法は, TSDFを用いた変形モデルやビュープランニングなしでの再構成モデルと比較した場合, レンダリングされた画像品質と再構成された3次元モデルの幾何学的品質について, 様々な指標について有意な改善を示す。
論文 参考訳(メタデータ) (2022-07-22T10:05:36Z) - Self Context and Shape Prior for Sensorless Freehand 3D Ultrasound
Reconstruction [61.62191904755521]
3DフリーハンドUSは、幅広い範囲とフリーフォームスキャンを提供することで、この問題に対処することを約束している。
既存のディープラーニングベースの手法は、スキルシーケンスの基本ケースのみに焦点を当てている。
複雑なスキルシーケンスを考慮したセンサレスフリーハンドUS再構成手法を提案する。
論文 参考訳(メタデータ) (2021-07-31T16:06:50Z) - Locally Aware Piecewise Transformation Fields for 3D Human Mesh
Registration [67.69257782645789]
本論文では,3次元変換ベクトルを学習し,提案空間内の任意のクエリ点をリザーブ空間内の対応する位置にマップする部分変換場を提案する。
パラメトリックモデルにネットワークのポーズを合わせることで、特に極端なポーズにおいて、より優れた登録品質が得られることを示す。
論文 参考訳(メタデータ) (2021-04-16T15:16:09Z) - Neural Descent for Visual 3D Human Pose and Shape [67.01050349629053]
入力RGB画像から3次元のポーズと形状を復元するディープニューラルネットワーク手法を提案する。
我々は最近導入された表現力のあるボディ統計モデルGHUMに頼っている。
我々の方法論の中心は、HUmanNeural Descent (HUND)と呼ばれるアプローチの学習と最適化である。
論文 参考訳(メタデータ) (2020-08-16T13:38:41Z) - Monocular Human Pose and Shape Reconstruction using Part Differentiable
Rendering [53.16864661460889]
近年の研究では、3次元基底真理によって教師されるディープニューラルネットワークを介してパラメトリックモデルを直接推定する回帰に基づく手法が成功している。
本稿では,ボディセグメンテーションを重要な監視対象として紹介する。
部分分割による再構成を改善するために,部分分割により部分ベースモデルを制御可能な部分レベル微分可能部を提案する。
論文 参考訳(メタデータ) (2020-03-24T14:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。