論文の概要: 3D Human Texture Estimation from a Single Image with Transformers
- arxiv url: http://arxiv.org/abs/2109.02563v1
- Date: Mon, 6 Sep 2021 16:00:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 17:00:33.166118
- Title: 3D Human Texture Estimation from a Single Image with Transformers
- Title(参考訳): 変圧器を用いた単一画像からの3次元人体テクスチャ推定
- Authors: Xiangyu Xu, Chen Change Loy
- Abstract要約: 単一画像からの3次元人間のテクスチャ推定のためのトランスフォーマーベースのフレームワークを提案する。
また,RGBモデルとテクスチャフローモデルを組み合わせたマスク融合方式を提案する。
- 参考スコア(独自算出の注目度): 106.6320286821364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a Transformer-based framework for 3D human texture estimation from
a single image. The proposed Transformer is able to effectively exploit the
global information of the input image, overcoming the limitations of existing
methods that are solely based on convolutional neural networks. In addition, we
also propose a mask-fusion strategy to combine the advantages of the RGB-based
and texture-flow-based models. We further introduce a part-style loss to help
reconstruct high-fidelity colors without introducing unpleasant artifacts.
Extensive experiments demonstrate the effectiveness of the proposed method
against state-of-the-art 3D human texture estimation approaches both
quantitatively and qualitatively.
- Abstract(参考訳): 単一画像からの3次元人間のテクスチャ推定のためのトランスフォーマーベースのフレームワークを提案する。
提案したTransformerは,畳み込みニューラルネットワークのみに基づく既存の手法の限界を克服して,入力画像のグローバルな情報を効果的に活用することができる。
さらに,RGBモデルとテクスチャフローモデルを組み合わせたマスク融合方式を提案する。
さらに、不愉快なアーティファクトを導入することなく、高忠実な色を再現する部分的な損失を導入する。
大規模実験により, 定量的および定性的に, 最先端の3次元人体テクスチャ推定手法に対する提案手法の有効性が実証された。
関連論文リスト
- ConTex-Human: Free-View Rendering of Human from a Single Image with
Texture-Consistent Synthesis [49.28239918969784]
テクスチャに一貫性のあるバックビュー合成モジュールを導入し、参照画像コンテンツをバックビューに転送する。
また、テクスチャマッピングとリファインメントのための可視性対応パッチ整合性正規化と、合成したバックビューテクスチャの組み合わせを提案する。
論文 参考訳(メタデータ) (2023-11-28T13:55:53Z) - PaintHuman: Towards High-fidelity Text-to-3D Human Texturing via
Denoised Score Distillation [89.09455618184239]
テキスト・ツー・3D世代における最近の進歩は画期的なものである。
そこで我々はPaintHumanというモデルを提案し,その課題を2つの側面から解決する。
奥行きマップを手引きとして,現実的なセマンティックなテクスチャの整合性を保証する。
論文 参考訳(メタデータ) (2023-10-14T00:37:16Z) - Refining 3D Human Texture Estimation from a Single Image [3.8761064607384195]
1枚の画像から3次元の人間のテクスチャを推定することは、グラフィックと視覚に不可欠である。
本稿では,オフセットが深層ニューラルネットワークを介して学習される変形可能な畳み込みによって,入力を適応的にサンプリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T19:53:50Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - Photorealistic Monocular 3D Reconstruction of Humans Wearing Clothing [41.34640834483265]
我々は,単眼のRGB画像のみを付加したフォトリアリスティックな3次元人体再構成のための,新しいエンドツーエンドトレーニング可能なディープニューラルネットワーク手法PHORHUMを提案する。
我々の画素アライメント法は,3次元形状を詳細に推定し,非整形表面色とシーン照明を併用した。
論文 参考訳(メタデータ) (2022-04-19T14:06:16Z) - Differentiable Rendering for Synthetic Aperture Radar Imagery [0.0]
本稿では,3次元コンピュータグラフィックスの手法とニューラルレンダリングを組み合わせた合成開口レーダ(SAR)画像の微分可能レンダリング手法を提案する。
高忠実度シミュレーションSARデータを用いた限られたSAR画像からの3次元オブジェクト再構成の逆画像問題に対するアプローチを実証する。
論文 参考訳(メタデータ) (2022-04-04T05:27:40Z) - NeuralReshaper: Single-image Human-body Retouching with Deep Neural
Networks [50.40798258968408]
本稿では,深部生成ネットワークを用いた単一画像における人体の意味的再構成手法であるNeuralReshaperを提案する。
われわれのアプローチは、まずパラメトリックな3次元人間モデルと元の人間の画像とを適合させるフィッティング・セイン・リフォーム・パイプラインに従う。
ペアデータが存在しないデータ不足に対処するために,ネットワークをトレーニングするための新たな自己教師型戦略を導入する。
論文 参考訳(メタデータ) (2022-03-20T09:02:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。