論文の概要: CHRIS: Clothed Human Reconstruction with Side View Consistency
- arxiv url: http://arxiv.org/abs/2505.12005v1
- Date: Sat, 17 May 2025 13:41:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.985404
- Title: CHRIS: Clothed Human Reconstruction with Side View Consistency
- Title(参考訳): CHRIS: サイドビューの整合性を備えた衣服の復元
- Authors: Dong Liu, Yifan Yang, Zixiong Huang, Yuxin Gao, Mingkui Tan,
- Abstract要約: サイドビュー整合性CHRISを用いた衣服付きヒューマンレコンストラクションについて紹介する。
CHRISは、生成されたサイドビューのノーマルと地上の真実のノーマルを区別することで、グローバルな視覚的理性を高める。
実験結果から,CHRISは公開ベンチマーク上での最先端性能を実現することが示された。
- 参考スコア(独自算出の注目度): 41.14535468525886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creating a realistic clothed human from a single-view RGB image is crucial for applications like mixed reality and filmmaking. Despite some progress in recent years, mainstream methods often fail to fully utilize side-view information, as the input single-view image contains front-view information only. This leads to globally unrealistic topology and local surface inconsistency in side views. To address these, we introduce Clothed Human Reconstruction with Side View Consistency, namely CHRIS, which consists of 1) A Side-View Normal Discriminator that enhances global visual reasonability by distinguishing the generated side-view normals from the ground truth ones; 2) A Multi-to-One Gradient Computation (M2O) that ensures local surface consistency. M2O calculates the gradient of a sampling point by integrating the gradients of the nearby points, effectively acting as a smooth operation. Experimental results demonstrate that CHRIS achieves state-of-the-art performance on public benchmarks and outperforms the prior work.
- Abstract(参考訳): RGB画像からリアルな服を着た人間を作ることは、混成現実や映画製作といった応用には不可欠だ。
近年の進歩にもかかわらず、入力されたシングルビュー画像はフロントビュー情報のみを含むため、主流の手法ではサイドビュー情報を完全に活用できないことが多い。
これは、世界の非現実的なトポロジと、側観における局所的な表面の不整合につながる。
これらの問題に対処するために、我々は、側視整合性、すなわちCHRISからなる衣服付き人体再構成を導入する。
1)大域的視覚的理性を高める側視正常判別器は、生成した側視正常度と基礎的真理性とを区別する。
2)局所的な面の整合性を保証するM2O(Multi-to-One Gradient Computation)。
M2Oは、近くの点の勾配を統合することでサンプリング点の勾配を計算し、スムーズな操作として効果的に機能する。
実験結果から,CHRISは公開ベンチマーク上での最先端性能を達成し,先行作業より優れていたことが確認された。
関連論文リスト
- HumMorph: Generalized Dynamic Human Neural Fields from Few Views [25.797767180740454]
HumMorphは、任意のポーズでいくつかの観察されたビューを与えられた任意の特定のポーズで人間のアクターをレンダリングする。
HumMorphは、単一の入力ビューしか利用できない場合、最先端のシステムと競合することを示す。
論文 参考訳(メタデータ) (2025-04-27T23:35:54Z) - Rendering Anywhere You See: Renderability Field-guided Gaussian Splatting [4.89907242398523]
本研究では、シーンビュー合成のためのレンダリング性フィールド誘導ガウススプラッティング(RF-GS)を提案する。
RF-GSはレンダリング性フィールドを通じて入力の不均一性を定量化し、擬似ビューサンプリングを視覚的整合性の向上に導く。
シミュレーションおよび実世界のデータを用いた実験により,本手法は従来のレンダリング安定性の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-04-27T14:41:01Z) - Geometry-guided Cross-view Diffusion for One-to-many Cross-view Image Synthesis [48.945931374180795]
本稿では,対応する衛星画像から可視な地上画像を生成することを目的とした,クロスビュー合成のための新しいアプローチを提案する。
これらの課題を衛星間(Sat2Grd)と地上間(Grd2Sat)合成と呼ぶ。
論文 参考訳(メタデータ) (2024-12-04T13:47:51Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - CroCo v2: Improved Cross-view Completion Pre-training for Stereo
Matching and Optical Flow [22.161967080759993]
自己教師付き事前学習法は、ステレオマッチングや光学フローのような密集した幾何学的視覚タスクでは、まだ提供されていない。
我々は、同じシーンから2番目のビューを利用するマスク付き画像モデリングのバリエーションである、最近のクロスビュー補完フレームワークの上に構築する。
本稿では,ステレオマッチングと光学的流れに関する最先端の成果を,従来のタスク固有の手法を使わずに到達できることを初めて示す。
論文 参考訳(メタデータ) (2022-11-18T18:18:53Z) - Human View Synthesis using a Single Sparse RGB-D Input [16.764379184593256]
本稿では,RGB-Dが疎い単一ビューセンサから取得した映像からリアルなレンダリングを生成するための,新しいビュー合成フレームワークを提案する。
エンハンサーネットワークは、元のビューから隠された領域でも全体の忠実さを活用し、細部まで細部までクリップレンダリングを生成する。
論文 参考訳(メタデータ) (2021-12-27T20:13:53Z) - Bridging Composite and Real: Towards End-to-end Deep Image Matting [88.79857806542006]
画像マッチングにおける意味論と細部の役割について検討する。
本稿では,共有エンコーダと2つの分離デコーダを用いた新しいGlance and Focus Matting Network(GFM)を提案する。
総合的な実証研究により、GFMは最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2020-10-30T10:57:13Z) - Appearance Consensus Driven Self-Supervised Human Mesh Recovery [67.20942777949793]
単眼画像から人間のポーズや形状を推定する自己教師付きメッシュ回復フレームワークを提案する。
標準モデルに基づく3次元ポーズ推定ベンチマークの最先端結果を得る。
その結果、色付きメッシュ予測により、ポーズや形状推定以外にも、さまざまな外観関連タスクにフレームワークの使用が開放される。
論文 参考訳(メタデータ) (2020-08-04T05:40:39Z) - Dual-Attention GAN for Large-Pose Face Frontalization [59.689836951934694]
本稿では,フォトリアリスティック顔フロンダル化のためのDA-GAN(Dual-Attention Generative Adversarial Network)を提案する。
具体的には、ローカル機能と長距離依存関係を統合するために、自己アテンションベースのジェネレータが導入された。
顔領域の局所的特徴を強調するために,新しい顔認識に基づく識別器を適用した。
論文 参考訳(メタデータ) (2020-02-17T20:00:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。