論文の概要: Adversarial Texture Optimization from RGB-D Scans
- arxiv url: http://arxiv.org/abs/2003.08400v1
- Date: Wed, 18 Mar 2020 18:00:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 12:48:51.909467
- Title: Adversarial Texture Optimization from RGB-D Scans
- Title(参考訳): RGB-Dスキャンによる逆テクスチャ最適化
- Authors: Jingwei Huang, Justus Thies, Angela Dai, Abhijit Kundu, Chiyu Max
Jiang, Leonidas Guibas, Matthias Nie{\ss}ner, Thomas Funkhouser
- Abstract要約: 弱教師付き視点から得られた条件付き対向損失を用いた色彩テクスチャ生成のための新しい手法を提案する。
提案手法の鍵となる考え方は,テクスチャ最適化をミスアライメントに寛容に導くパッチベースの条件判別器を学習することである。
- 参考スコア(独自算出の注目度): 37.78810126921875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Realistic color texture generation is an important step in RGB-D surface
reconstruction, but remains challenging in practice due to inaccuracies in
reconstructed geometry, misaligned camera poses, and view-dependent imaging
artifacts.
In this work, we present a novel approach for color texture generation using
a conditional adversarial loss obtained from weakly-supervised views.
Specifically, we propose an approach to produce photorealistic textures for
approximate surfaces, even from misaligned images, by learning an objective
function that is robust to these errors.
The key idea of our approach is to learn a patch-based conditional
discriminator which guides the texture optimization to be tolerant to
misalignments.
Our discriminator takes a synthesized view and a real image, and evaluates
whether the synthesized one is realistic, under a broadened definition of
realism.
We train the discriminator by providing as `real' examples pairs of input
views and their misaligned versions -- so that the learned adversarial loss
will tolerate errors from the scans.
Experiments on synthetic and real data under quantitative or qualitative
evaluation demonstrate the advantage of our approach in comparison to state of
the art. Our code is publicly available with video demonstration.
- Abstract(参考訳): リアルなカラーテクスチャの生成は、rgb-d表面再構成の重要なステップであるが、再構成された形状の不正確さ、カメラのポーズのミスアライメント、ビュー依存のイメージアーティファクトのため、実際はまだ困難である。
本研究では,弱教師付き視点から得られた条件付き逆数損失を用いた色彩テクスチャ生成手法を提案する。
具体的には,これらの誤差に頑健な客観的関数を学習することにより,不整合画像からでも近似面に対してフォトリアリスティックなテクスチャを生成する手法を提案する。
提案手法の鍵となる考え方は,テクスチャ最適化をミスアライメントに寛容に導くパッチベースの条件判別器を学習することである。
識別器は合成ビューと実画像を取り、合成ビューが現実主義の広い定義の下で現実的かどうかを評価する。
私たちは、'リアル'な'例の入力ビューとそれらの不整合バージョンを提供することで、判別子を訓練し、学習した敵の損失がスキャンからエラーを許容できるようにします。
定量的・質的評価の下での合成データおよび実データ実験は,最先端技術と比較して,本手法の利点を実証する。
私たちのコードはビデオデモで公開されています。
関連論文リスト
- ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - TexPose: Neural Texture Learning for Self-Supervised 6D Object Pose
Estimation [55.94900327396771]
合成データから6次元オブジェクトポーズ推定のためのニューラルネットワークによるテクスチャ学習を提案する。
実画像からオブジェクトの現実的なテクスチャを予測することを学ぶ。
画素完全合成データからポーズ推定を学習する。
論文 参考訳(メタデータ) (2022-12-25T13:36:32Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z) - Intrinsic Decomposition of Document Images In-the-Wild [28.677728405031782]
本稿では,本質的な画像形成に基づく文書反射率を直接推定する学習手法を提案する。
提案アーキテクチャは, 合成テクスチャのみを弱い訓練信号として用いる自己教師型方式で機能する。
OCRパイプラインの前処理ステップとして使用する反射率推定方式は,文字誤り率を26%向上させる。
論文 参考訳(メタデータ) (2020-11-29T21:39:58Z) - Dynamic Object Removal and Spatio-Temporal RGB-D Inpainting via
Geometry-Aware Adversarial Learning [9.150245363036165]
動的物体はロボットの環境に対する認識に大きな影響を及ぼす。
本研究は,動的物体によって隠蔽された領域における可塑性色,テクスチャ,幾何学を合成することにより,この問題に対処する。
本研究は, 対人訓練を用いて建築を最適化し, オンラインで色と深度構造を幻覚できるような, 微妙な現実的なテクスチャを合成する。
論文 参考訳(メタデータ) (2020-08-12T01:23:21Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z) - Deep CG2Real: Synthetic-to-Real Translation via Image Disentanglement [78.58603635621591]
画像空間における未ペアの合成-現実翻訳ネットワークの訓練は、厳しい制約下にある。
画像の非交叉シェーディング層とアルベド層に作用する半教師付きアプローチを提案する。
私たちの2段階のパイプラインはまず、物理ベースのレンダリングをターゲットとして、教師付き方法で正確なシェーディングを予測することを学習します。
論文 参考訳(メタデータ) (2020-03-27T21:45:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。