論文の概要: PX-NET: Simple and Efficient Pixel-Wise Training of Photometric Stereo
Networks
- arxiv url: http://arxiv.org/abs/2008.04933v3
- Date: Tue, 12 Oct 2021 12:55:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 11:52:43.990692
- Title: PX-NET: Simple and Efficient Pixel-Wise Training of Photometric Stereo
Networks
- Title(参考訳): PX-NET:測光ステレオネットワークの簡易かつ効率的な画素幅トレーニング
- Authors: Fotios Logothetis, Ignas Budvytis, Roberto Mecca, Roberto Cipolla
- Abstract要約: 光を反射する物体の正確な3D再構成は、コンピュータビジョンにおいて非常に難しい課題だ。
本稿では,グローバルにレンダリングされた画像のトレーニングデータ(観測マップ)を,画素単位の独立なデータに置き換えることで,正規予測のための新たな画素単位のトレーニング手順を提案する。
我々のネットワークであるPX-NETは、合成データセット上の他のピクセルワイズ手法と比較して最先端の性能を実現している。
- 参考スコア(独自算出の注目度): 26.958763133729846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieving accurate 3D reconstructions of objects from the way they reflect
light is a very challenging task in computer vision. Despite more than four
decades since the definition of the Photometric Stereo problem, most of the
literature has had limited success when global illumination effects such as
cast shadows, self-reflections and ambient light come into play, especially for
specular surfaces.
Recent approaches have leveraged the power of deep learning in conjunction
with computer graphics in order to cope with the need of a vast number of
training data in order to invert the image irradiance equation and retrieve the
geometry of the object. However, rendering global illumination effects is a
slow process which can limit the amount of training data that can be generated.
In this work we propose a novel pixel-wise training procedure for normal
prediction by replacing the training data (observation maps) of globally
rendered images with independent per-pixel generated data. We show that global
physical effects can be approximated on the observation map domain and this
simplifies and speeds up the data creation procedure.
Our network, PX-NET, achieves the state-of-the-art performance compared to
other pixelwise methods on synthetic datasets, as well as the Diligent real
dataset on both dense and sparse light settings.
- Abstract(参考訳): 光を反射する物体の正確な3D再構成は、コンピュータビジョンにおいて非常に難しい課題だ。
光度ステレオ問題の定義から40年以上経っても、ほとんどの文献は、キャストシャドウ、自己反射、周囲の光といった地球規模の照明効果が、特にスペクチュラーな面に現れると、あまり成功しなかった。
近年,画像照射方程式を逆転させて物体の形状を復元するために,コンピュータグラフィックスと併用して深層学習の力を活用し,膨大なトレーニングデータの必要性に対処している。
しかし、グローバル照明効果のレンダリングは遅いプロセスであり、生成可能なトレーニングデータの量を制限することができる。
本研究では,グローバルレンダリング画像のトレーニングデータ(観測マップ)をピクセル単位の独立生成データに置き換え,正規予測のための新しいピクセル単位のトレーニング手順を提案する。
本研究では,グローバルな物理効果を観測マップ領域上で近似し,データ生成手順の簡素化と高速化を図っている。
我々のネットワークであるPX-NETは、合成データセット上の他のピクセルワイズ手法や、密度とスパースの両方の光設定上のディリジェントリアルデータセットと比較して、最先端の性能を達成する。
関連論文リスト
- IDArb: Intrinsic Decomposition for Arbitrary Number of Input Views and Illuminations [64.07859467542664]
画像から幾何学的および物質的情報をキャプチャすることは、コンピュータビジョンとグラフィックスの基本的な課題である。
従来の最適化に基づく手法では、密集した多視点入力から幾何学、材料特性、環境照明を再構築するために数時間の計算時間を必要とすることが多い。
IDArbは、様々な照明条件下で、任意の画像に対して本質的な分解を行うために設計された拡散モデルである。
論文 参考訳(メタデータ) (2024-12-16T18:52:56Z) - A CNN Based Approach for the Point-Light Photometric Stereo Problem [26.958763133729846]
本稿では、遠距離場光度ステレオにおける深部ニューラルネットワークの最近の改良を活用して、現実的な仮定を処理できるCNNベースのアプローチを提案する。
われわれのアプローチは、DiLiGenT実世界のデータセットの最先端よりも優れている。
近距離点光源PSデータに対する我々のアプローチの性能を測定するため、LUCESを「近距離点光のための最初の実世界のデータセット」として紹介する。
論文 参考訳(メタデータ) (2022-10-10T12:57:12Z) - Learning to Relight Portrait Images via a Virtual Light Stage and
Synthetic-to-Real Adaptation [76.96499178502759]
Relightingは、イメージ内の人物を、ターゲットの照明のある環境に現れたかのように再照らすことを目的としている。
最近の手法は、高品質な結果を得るためにディープラーニングに依存している。
そこで本研究では,光ステージを必要とせずに,SOTA(State-of-the-art Relighting Method)と同等に動作可能な新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-21T17:15:58Z) - Neural Radiance Transfer Fields for Relightable Novel-view Synthesis
with Global Illumination [63.992213016011235]
本稿では,ニューラル計算された放射光伝達関数を学習し,新しい視点下でのシーンリライティング手法を提案する。
本手法は,1つの未知の照明条件下で,シーンの実際の画像に対してのみ監視することができる。
その結果, シーンパラメータのアンタングルの復元は, 現状よりも有意に向上していることがわかった。
論文 参考訳(メタデータ) (2022-07-27T16:07:48Z) - Progressively-connected Light Field Network for Efficient View Synthesis [69.29043048775802]
本稿では、複雑な前方シーンのビュー合成のためのプログレッシブ・コネクテッド・ライトフィールド・ネットワーク(ProLiF)を提案する。
ProLiFは4Dライトフィールドをエンコードし、画像やパッチレベルの損失に対するトレーニングステップで大量の光線をレンダリングすることができる。
論文 参考訳(メタデータ) (2022-07-10T13:47:20Z) - Enhancing Low-Light Images in Real World via Cross-Image Disentanglement [58.754943762945864]
そこで本研究では,現実の汚職とミスアライメントされたトレーニング画像からなる,新しい低照度画像強調データセットを提案する。
本モデルでは,新たに提案したデータセットと,他の一般的な低照度データセットの両方に対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-01-10T03:12:52Z) - LUCES: A Dataset for Near-Field Point Light Source Photometric Stereo [30.31403197697561]
LUCESは, 様々な素材の14個のオブジェクトからなる, 近距離Ld点光のための最初の実世界のデータセットである。
52個のLEDを計る装置は、カメラから10から30cm離れた位置にある各物体に点灯するように設計されている。
提案するデータセットにおける最新の近接場測光ステレオアルゴリズムの性能評価を行った。
論文 参考訳(メタデータ) (2021-04-27T12:30:42Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。