論文の概要: Passing Multi-Channel Material Textures to a 3-Channel Loss
- arxiv url: http://arxiv.org/abs/2105.13012v1
- Date: Thu, 27 May 2021 08:58:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-29 04:22:50.260871
- Title: Passing Multi-Channel Material Textures to a 3-Channel Loss
- Title(参考訳): マルチチャネル材料テクスチャの3チャンネル損失への伝達
- Authors: Thomas Chambon, Eric Heitz, and Laurent Belcour
- Abstract要約: 複数の材料チャネルでテクスチャジェネレータを訓練するのに使用できるテクスチャ損失を計算する。
ランダムな三重項を3チャネルの損失に渡すことで、高品質な材料テクスチャを生成できる多チャンネルの損失が得られることを示す。
- 参考スコア(独自算出の注目度): 6.729108277517129
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our objective is to compute a textural loss that can be used to train texture
generators with multiple material channels typically used for physically based
rendering such as albedo, normal, roughness, metalness, ambient occlusion, etc.
Neural textural losses often build on top of the feature spaces of pretrained
convolutional neural networks. Unfortunately, these pretrained models are only
available for 3-channel RGB data and hence limit neural textural losses to this
format. To overcome this limitation, we show that passing random triplets to a
3-channel loss provides a multi-channel loss that can be used to generate
high-quality material textures.
- Abstract(参考訳): 本研究の目的は,albedo, normal, roughness, metalness, ambient occlusionなどの物理ベースレンダリングに使用される複数の素材チャネルを用いたテクスチャ生成器のトレーニングに使用できるテクスチャロスを計算することである。
ニューラルネットワークは、事前訓練された畳み込みニューラルネットワークの特徴空間の上に構築されることが多い。
残念なことに、これらの事前訓練されたモデルは3チャンネルのRGBデータでしか利用できないため、このフォーマットでは神経のテクスチャ損失が制限される。
この限界を克服するために、3チャンネルの損失にランダムな三重項を渡すことは、高品質な素材テクスチャを生成するのに使用できるマルチチャネル損失をもたらすことを示した。
関連論文リスト
- CAwa-NeRF: Instant Learning of Compression-Aware NeRF Features [0.0]
本稿では,圧縮対応NeRF特徴量(CAwa-NeRF)の即時学習について紹介する。
提案したインスタントラーニングパイプラインは,様々な静的シーンにおいて印象的な結果が得られる。
特に、単一のオブジェクトをマスクした背景シーンでは、CAwa-NeRFはPSNR (33 dB) を損なうことなく、元のサイズの機能グリッドを6% (1.2 MB) まで圧縮し、わずかに仮想損失 (32.31 dB) の2.4% (0.53 MB) まで圧縮する。
論文 参考訳(メタデータ) (2023-10-23T08:40:44Z) - Neuralangelo: High-Fidelity Neural Surface Reconstruction [22.971952498343942]
マルチレゾリューション3Dハッシュグリッドの表現力とニューラルサーフェスレンダリングを組み合わせたニューラルアンジェロを提案する。
深度などの補助的な入力がなくても、ニューラルランジェロは従来の手法をはるかに上回る忠実度を持つ多視点画像から高密度な3次元表面構造を効果的に回収することができる。
論文 参考訳(メタデータ) (2023-06-05T17:59:57Z) - Registering Neural Radiance Fields as 3D Density Images [55.64859832225061]
我々は,様々な場面でトレーニングやテストが可能な,普遍的な事前学習型ニューラルネットワークを提案する。
我々は,グローバルアプローチとして,NeRFモデルを効果的に登録できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T09:08:46Z) - Correspondence Distillation from NeRF-based GAN [135.99756183251228]
神経放射野(NeRF)は、物体やシーンの微細な詳細を保存するための有望な結果を示している。
同じカテゴリの異なるNeRFをまたいで密度の高い対応を構築することは、依然として未解決の問題である。
トレーニング済みのNeRFベースGANにカプセル化されているリッチなセマンティクスと構造的先行性を活用することで,これらの課題を回避可能であることを示す。
論文 参考訳(メタデータ) (2022-12-19T18:54:59Z) - Enforcing connectivity of 3D linear structures using their 2D
projections [54.0598511446694]
本稿では,2次元投影におけるトポロジ認識損失の総和を最小化することにより,結果の3次元接続性を改善することを提案する。
これにより、精度の向上と、アノテーション付きトレーニングデータの提供に必要なアノテーションの労力の削減が図られる。
論文 参考訳(メタデータ) (2022-07-14T11:42:18Z) - NeRFusion: Fusing Radiance Fields for Large-Scale Scene Reconstruction [50.54946139497575]
我々は,NeRF と TSDF をベースとした核融合技術の利点を組み合わせて,大規模再構築とフォトリアリスティックレンダリングを実現する手法であるNeRFusion を提案する。
我々は,大規模な屋内・小規模の両方の物体シーンにおいて,NeRFの最先端性を達成し,NeRFや他の最近の手法よりも大幅に高速に再現できることを実証した。
論文 参考訳(メタデータ) (2022-03-21T18:56:35Z) - Point-NeRF: Point-based Neural Radiance Fields [39.38262052015925]
Point-NeRFは、放射場をモデル化するために、関連するニューラル特徴を持つニューラル3Dポイントクラウドを使用する。
レイマーキングベースのレンダリングパイプラインにおいて、シーン表面近傍の神経点特徴を集約することで効率よくレンダリングすることができる。
Point-NeRFは、他の3次元再構成手法と組み合わせて、新しいプルーニング・成長機構を通じてエラーやアウトレーラを処理することができる。
論文 参考訳(メタデータ) (2022-01-21T18:59:20Z) - PERF: Performant, Explicit Radiance Fields [1.933681537640272]
放射場に基づく画像に基づく3次元再構成手法を提案する。
体積再構成の問題は非線形最小二乗問題として定式化され、ニューラルネットワークを使わずに明示的に解かれる。
論文 参考訳(メタデータ) (2021-12-10T15:29:00Z) - TermiNeRF: Ray Termination Prediction for Efficient Neural Rendering [18.254077751772005]
ニューラルネットワークを用いたボリュームレンダリングは、3Dシーンの新たなビューをキャプチャして合成する上で大きな可能性を秘めている。
この種のアプローチでは、画像をレンダリングするために、各ビューレイに沿って複数のポイントでボリュームネットワークをクエリする必要がある。
本稿では,この限界を克服するために,画素の最終的な外観に影響を与える可能性が最も高いカメラ線から,光線に沿った位置への直接マッピングを学習する手法を提案する。
論文 参考訳(メタデータ) (2021-11-05T17:50:44Z) - Identity Enhanced Residual Image Denoising [61.75610647978973]
我々は、アイデンティティマッピングモジュールのチェーンと、画像の復号化のための残像アーキテクチャの残像からなる、完全な畳み込みネットワークモデルを学ぶ。
提案するネットワークは,従来の最先端・CNNアルゴリズムよりも極めて高い数値精度と画像品質を実現している。
論文 参考訳(メタデータ) (2020-04-26T04:52:22Z) - Attention Based Real Image Restoration [48.933507352496726]
深層畳み込みニューラルネットワークは、合成劣化を含む画像に対してより良い性能を発揮する。
本稿では,新しい1段ブラインド実画像復元ネットワーク(R$2$Net)を提案する。
論文 参考訳(メタデータ) (2020-04-26T04:21:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。