論文の概要: A study of the effect of the illumination model on the generation of
synthetic training datasets
- arxiv url: http://arxiv.org/abs/2006.08819v1
- Date: Mon, 15 Jun 2020 23:22:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 02:40:22.770709
- Title: A study of the effect of the illumination model on the generation of
synthetic training datasets
- Title(参考訳): 合成訓練データセット生成における照明モデルの影響に関する研究
- Authors: Xin Zhang and Ning Jia and Ioannis Ivrissimtzis
- Abstract要約: レンダリングソフトウェアで使用される照明モデルが生成した画像の品質に与える影響について検討する。
私たちは8つのトレーニングセットを作成しました。それぞれが異なる照明モデルで、それらを3つの異なるネットワークアーキテクチャでテストしました。
- 参考スコア(独自算出の注目度): 4.238220229373858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of computer generated images to train Deep Neural Networks is a
viable alternative to real images when the latter are scarce or expensive. In
this paper, we study how the illumination model used by the rendering software
affects the quality of the generated images. We created eight training sets,
each one with a different illumination model, and tested them on three
different network architectures, ResNet, U-Net and a combined architecture
developed by us. The test set consisted of photos of 3D printed objects
produced from the same CAD models used to generate the training set. The effect
of the other parameters of the rendering process, such as textures and camera
position, was randomized.
Our results show that the effect of the illumination model is important,
comparable in significance to the network architecture. We also show that both
light probes capturing natural environmental light, and modelled lighting
environments, can give good results. In the case of light probes, we identified
as two significant factors affecting performance the similarity between the
light probe and the test environment, as well as the light probe's resolution.
Regarding modelled lighting environment, similarity with the test environment
was again identified as a significant factor.
- Abstract(参考訳): コンピュータ生成画像を用いてDeep Neural Networksを訓練することは、後者が不足している場合や高価である場合、実際の画像の代替となる。
本稿では,レンダリングソフトウェアが使用する照明モデルが生成画像の品質に与える影響について検討する。
それぞれ異なる照明モデルを持つ8つのトレーニングセットを作成し、これらを3つの異なるネットワークアーキテクチャ(resnet、u-net、そして私たちが開発した複合アーキテクチャ)でテストしました。
テストセットは、トレーニングセットを生成するために使用されるCADモデルと同じ3Dプリントオブジェクトの写真で構成されています。
テクスチャやカメラ位置といったレンダリングプロセスの他のパラメータの影響はランダム化されている。
その結果,照明モデルの効果は重要であり,ネットワークアーキテクチャと同等であることがわかった。
また, 自然環境光を捉えた光プローブと, モデル化された照明環境の両方が良好な結果をもたらすことを示した。
光プローブの場合,光プローブと試験環境の類似性,および光プローブの分解能に影響を及ぼす2つの重要な要因を同定した。
模擬照明環境については, 試験環境との類似性が重要な要因として再確認された。
関連論文リスト
- Neural Appearance Modeling From Single Images [3.3090362820994526]
多様な視界と照明条件下で可視で空間的に変化する物質を可視化するための物質外見モデリングニューラルネットワークを提案する。
我々のネットワークは,1枚の入力写真から1ピクセルあたりのニューラルネットワークパラメータを推定するネットワークと,その素材を描画するネットワークという2つのネットワークステージで構成されている。
論文 参考訳(メタデータ) (2024-06-08T18:56:03Z) - WinSyn: A High Resolution Testbed for Synthetic Data [41.11481327112564]
我々は、手続き的モデリング技術を用いて高品質な合成データを作成するためのユニークなデータセットとテストベッドであるWinSynを紹介する。
このデータセットには、世界中の場所から選抜された高解像度の窓の写真が含まれており、89,318の個々の窓作物は、多様な幾何学的特徴と材料的特性を示している。
合成画像と実画像の両方で意味的セグメンテーションネットワークを訓練し、実画像の共有テストセットでそれらの性能を比較することによって、手続きモデルを評価する。
論文 参考訳(メタデータ) (2023-10-09T20:18:10Z) - Relightify: Relightable 3D Faces from a Single Image via Diffusion
Models [86.3927548091627]
単一画像からの3次元顔BRDF再構成を高精度に行うために,拡散モデルを用いた最初のアプローチを提案する。
既存の手法とは対照的に,観測されたテクスチャを直接入力画像から取得することで,より忠実で一貫した推定が可能となる。
論文 参考訳(メタデータ) (2023-05-10T11:57:49Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z) - Sim2Air - Synthetic aerial dataset for UAV monitoring [2.1638817206926855]
テクスチャランダム化を適用し,形状に基づくオブジェクト表現のアクセント化を提案する。
すべてのパラメータでフォトリアリズムを持つ多様なデータセットは、3DモデリングソフトウェアであるBlenderで作成される。
論文 参考訳(メタデータ) (2021-10-11T10:36:33Z) - PX-NET: Simple and Efficient Pixel-Wise Training of Photometric Stereo
Networks [26.958763133729846]
光を反射する物体の正確な3D再構成は、コンピュータビジョンにおいて非常に難しい課題だ。
本稿では,グローバルにレンダリングされた画像のトレーニングデータ(観測マップ)を,画素単位の独立なデータに置き換えることで,正規予測のための新たな画素単位のトレーニング手順を提案する。
我々のネットワークであるPX-NETは、合成データセット上の他のピクセルワイズ手法と比較して最先端の性能を実現している。
論文 参考訳(メタデータ) (2020-08-11T18:03:13Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z) - Multi-View Photometric Stereo: A Robust Solution and Benchmark Dataset
for Spatially Varying Isotropic Materials [65.95928593628128]
多視点光度ステレオ技術を用いて3次元形状と空間的に異なる反射率の両方をキャプチャする手法を提案する。
我々のアルゴリズムは、遠近点光源と遠近点光源に適している。
論文 参考訳(メタデータ) (2020-01-18T12:26:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。