論文の概要: FOCUS - Multi-View Foot Reconstruction From Synthetically Trained Dense Correspondences
- arxiv url: http://arxiv.org/abs/2502.06367v1
- Date: Mon, 10 Feb 2025 11:36:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:31:42.047677
- Title: FOCUS - Multi-View Foot Reconstruction From Synthetically Trained Dense Correspondences
- Title(参考訳): FOCUS - 合成訓練された高密度対応による多視点足の再構築
- Authors: Oliver Boyne, Roberto Cipolla,
- Abstract要約: 人足再建の具体的な症例について検討する。
マルチビューRGB画像からリッチなピクセル単位の幾何学的手がかりを抽出する。
本研究は, 現状の再建の質を, 数点の視点で達成できることを実証する。
- 参考スコア(独自算出の注目度): 23.644116579294547
- License:
- Abstract: Surface reconstruction from multiple, calibrated images is a challenging task - often requiring a large number of collected images with significant overlap. We look at the specific case of human foot reconstruction. As with previous successful foot reconstruction work, we seek to extract rich per-pixel geometry cues from multi-view RGB images, and fuse these into a final 3D object. Our method, FOCUS, tackles this problem with 3 main contributions: (i) SynFoot2, an extension of an existing synthetic foot dataset to include a new data type: dense correspondence with the parameterized foot model FIND; (ii) an uncertainty-aware dense correspondence predictor trained on our synthetic dataset; (iii) two methods for reconstructing a 3D surface from dense correspondence predictions: one inspired by Structure-from-Motion, and one optimization-based using the FIND model. We show that our reconstruction achieves state-of-the-art reconstruction quality in a few-view setting, performing comparably to state-of-the-art when many views are available, and runs substantially faster. We release our synthetic dataset to the research community. Code is available at: https://github.com/OllieBoyne/FOCUS
- Abstract(参考訳): 複数のキャリブレーションされた画像から表面を再構成することは難しい作業である。
人足再建の具体的な症例について検討する。
これまでの足の復元作業と同様に、多視点RGB画像からリッチなピクセル単位の幾何学的手がかりを抽出し、それらを最終3次元オブジェクトに融合する。
提案手法であるFOCUSは,3つの主要なコントリビューションでこの問題に対処する。
i) SynFoot2 - 新しいデータ型を含む既存の合成足データセットの拡張:パラメータ化足モデルFINDとの密接な対応。
(ii)我々の合成データセットで訓練された不確実性を考慮した高密度通信予測装置
(3)高密度対応予測から3次元表面を再構成する2つの手法:構造から運動にインスパイアされた1つの方法、FINDモデルを用いた1つの最適化。
提案手法は, 複数ビューで最先端の再現性を実現し, 多数のビューが利用可能であれば, 従来と同等に動作し, より高速に動作可能であることを示す。
合成データセットを研究コミュニティに公開します。
コードは、https://github.com/OllieBoyne/FOCUSで入手できる。
関連論文リスト
- Large Spatial Model: End-to-end Unposed Images to Semantic 3D [79.94479633598102]
大空間モデル(LSM)は、RGB画像を直接意味的放射場に処理する。
LSMは、単一のフィードフォワード操作における幾何学、外観、意味を同時に推定する。
新しい視点で言語と対話することで、多目的ラベルマップを生成することができる。
論文 参考訳(メタデータ) (2024-10-24T17:54:42Z) - MaRINeR: Enhancing Novel Views by Matching Rendered Images with Nearby References [49.71130133080821]
MaRINeRは、近くのマッピング画像の情報を活用して、ターゲット視点のレンダリングを改善する方法である。
暗黙のシーン表現と暗黙のシーン表現の両方から、定量的な指標と定性的な例のレンダリングの改善を示す。
論文 参考訳(メタデータ) (2024-07-18T17:50:03Z) - HandBooster: Boosting 3D Hand-Mesh Reconstruction by Conditional Synthesis and Sampling of Hand-Object Interactions [68.28684509445529]
HandBoosterは、データの多様性を向上し、3Dハンド・ミーシュ・リコンストラクションのパフォーマンスを向上する新しいアプローチである。
まず,多様な手やポーズ,ビュー,背景を持つリアルな画像を生成するために,拡散モデルを誘導する多目的コンテンツ認識条件を構築した。
そこで我々は,我々の類似性を考慮した分布サンプリング戦略に基づく新しい条件作成手法を設計し,トレーニングセットとは異なる,斬新で現実的なインタラクションのポーズを意図的に見つける。
論文 参考訳(メタデータ) (2024-03-27T13:56:08Z) - FOUND: Foot Optimization with Uncertain Normals for Surface Deformation Using Synthetic Data [27.53648027412686]
本研究は,ヒトの足について,少数視点再構成法の開発を試みている。
この課題を解決するためには,RGB画像からリッチな幾何学的手がかりを抽出し,それらを最終3次元オブジェクトに慎重に融合させる必要がある。
通常の予測器は、実際の画像において、既成の等価性を著しく上回ることを示す。
論文 参考訳(メタデータ) (2023-10-27T17:11:07Z) - Hi-LASSIE: High-Fidelity Articulated Shape and Skeleton Discovery from
Sparse Image Ensemble [72.3681707384754]
Hi-LASSIEは、ユーザーが定義した形状やスケルトンテンプレートを使わずに、野生の20~30のオンライン画像から3Dで再現する。
まず,手動でアノテートした3Dスケルトンに頼る代わりに,選択した基準画像からクラス固有のスケルトンを自動的に推定する。
第二に、各インスタンスに忠実に適合する新しいインスタンス固有の最適化戦略により、形状再構成を改善する。
論文 参考訳(メタデータ) (2022-12-21T14:31:33Z) - End-to-End Multi-View Structure-from-Motion with Hypercorrelation
Volumes [7.99536002595393]
この問題に対処するために深層学習技術が提案されている。
我々は現在最先端の2次元構造であるSfM(SfM)のアプローチを改善している。
一般的なマルチビューのケースに拡張し、複雑なベンチマークデータセットDTUで評価する。
論文 参考訳(メタデータ) (2022-09-14T20:58:44Z) - Deep3DPose: Realtime Reconstruction of Arbitrarily Posed Human Bodies
from Single RGB Images [5.775625085664381]
本研究では,3次元人間のポーズを正確に再構築し,単一画像から詳細な3次元フルボディ幾何モデルをリアルタイムに構築する手法を提案する。
このアプローチの鍵となるアイデアは、単一のイメージを使用して5つの出力を同時に予測する、新しいエンドツーエンドのマルチタスクディープラーニングフレームワークである。
本研究では,3次元人体フロンティアを進化させ,定量的評価と最先端手法との比較により,単一画像からの再構築を図っている。
論文 参考訳(メタデータ) (2021-06-22T04:26:11Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - SparseFusion: Dynamic Human Avatar Modeling from Sparse RGBD Images [49.52782544649703]
本稿では,RGBDフレームのスパース集合に基づく3次元人体形状の再構築手法を提案する。
主な課題は、これらのスパースフレームを標準的な3Dモデルにしっかりと融合させる方法だ。
私たちのフレームワークは柔軟で、潜在的なアプリケーションは形状の再構築を超えています。
論文 参考訳(メタデータ) (2020-06-05T18:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。