論文の概要: Passing Multi-Channel Material Textures to a 3-Channel Loss
- arxiv url: http://arxiv.org/abs/2105.13012v1
- Date: Thu, 27 May 2021 08:58:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-29 04:22:50.260871
- Title: Passing Multi-Channel Material Textures to a 3-Channel Loss
- Title(参考訳): マルチチャネル材料テクスチャの3チャンネル損失への伝達
- Authors: Thomas Chambon, Eric Heitz, and Laurent Belcour
- Abstract要約: 複数の材料チャネルでテクスチャジェネレータを訓練するのに使用できるテクスチャ損失を計算する。
ランダムな三重項を3チャネルの損失に渡すことで、高品質な材料テクスチャを生成できる多チャンネルの損失が得られることを示す。
- 参考スコア(独自算出の注目度): 6.729108277517129
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our objective is to compute a textural loss that can be used to train texture
generators with multiple material channels typically used for physically based
rendering such as albedo, normal, roughness, metalness, ambient occlusion, etc.
Neural textural losses often build on top of the feature spaces of pretrained
convolutional neural networks. Unfortunately, these pretrained models are only
available for 3-channel RGB data and hence limit neural textural losses to this
format. To overcome this limitation, we show that passing random triplets to a
3-channel loss provides a multi-channel loss that can be used to generate
high-quality material textures.
- Abstract(参考訳): 本研究の目的は,albedo, normal, roughness, metalness, ambient occlusionなどの物理ベースレンダリングに使用される複数の素材チャネルを用いたテクスチャ生成器のトレーニングに使用できるテクスチャロスを計算することである。
ニューラルネットワークは、事前訓練された畳み込みニューラルネットワークの特徴空間の上に構築されることが多い。
残念なことに、これらの事前訓練されたモデルは3チャンネルのRGBデータでしか利用できないため、このフォーマットでは神経のテクスチャ損失が制限される。
この限界を克服するために、3チャンネルの損失にランダムな三重項を渡すことは、高品質な素材テクスチャを生成するのに使用できるマルチチャネル損失をもたらすことを示した。
関連論文リスト
- N-BVH: Neural ray queries with bounding volume hierarchies [51.430495562430565]
3Dコンピュータグラフィックスでは、シーンのメモリ使用量の大部分がポリゴンとテクスチャによるものである。
N-BVHは3次元の任意の光線クエリに応答するように設計されたニューラル圧縮アーキテクチャである。
本手法は, 視認性, 深度, 外観特性を忠実に近似する。
論文 参考訳(メタデータ) (2024-05-25T13:54:34Z) - NeRFCodec: Neural Feature Compression Meets Neural Radiance Fields for Memory-Efficient Scene Representation [22.151167286623416]
メモリ効率のよいシーン表現のための非線形変換,量子化,エントロピー符号化を統合したエンドツーエンドのNeRF圧縮フレームワークを提案する。
提案手法は既存のNeRF圧縮法より優れており、0.5MBのメモリ予算で高品質な新規ビュー合成を可能にする。
論文 参考訳(メタデータ) (2024-04-02T15:49:00Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - CAwa-NeRF: Instant Learning of Compression-Aware NeRF Features [0.0]
本稿では,圧縮対応NeRF特徴量(CAwa-NeRF)の即時学習について紹介する。
提案したインスタントラーニングパイプラインは,様々な静的シーンにおいて印象的な結果が得られる。
特に、単一のオブジェクトをマスクした背景シーンでは、CAwa-NeRFはPSNR (33 dB) を損なうことなく、元のサイズの機能グリッドを6% (1.2 MB) まで圧縮し、わずかに仮想損失 (32.31 dB) の2.4% (0.53 MB) まで圧縮する。
論文 参考訳(メタデータ) (2023-10-23T08:40:44Z) - Registering Neural Radiance Fields as 3D Density Images [55.64859832225061]
我々は,様々な場面でトレーニングやテストが可能な,普遍的な事前学習型ニューラルネットワークを提案する。
我々は,グローバルアプローチとして,NeRFモデルを効果的に登録できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T09:08:46Z) - Correspondence Distillation from NeRF-based GAN [135.99756183251228]
神経放射野(NeRF)は、物体やシーンの微細な詳細を保存するための有望な結果を示している。
同じカテゴリの異なるNeRFをまたいで密度の高い対応を構築することは、依然として未解決の問題である。
トレーニング済みのNeRFベースGANにカプセル化されているリッチなセマンティクスと構造的先行性を活用することで,これらの課題を回避可能であることを示す。
論文 参考訳(メタデータ) (2022-12-19T18:54:59Z) - PERF: Performant, Explicit Radiance Fields [1.933681537640272]
放射場に基づく画像に基づく3次元再構成手法を提案する。
体積再構成の問題は非線形最小二乗問題として定式化され、ニューラルネットワークを使わずに明示的に解かれる。
論文 参考訳(メタデータ) (2021-12-10T15:29:00Z) - TermiNeRF: Ray Termination Prediction for Efficient Neural Rendering [18.254077751772005]
ニューラルネットワークを用いたボリュームレンダリングは、3Dシーンの新たなビューをキャプチャして合成する上で大きな可能性を秘めている。
この種のアプローチでは、画像をレンダリングするために、各ビューレイに沿って複数のポイントでボリュームネットワークをクエリする必要がある。
本稿では,この限界を克服するために,画素の最終的な外観に影響を与える可能性が最も高いカメラ線から,光線に沿った位置への直接マッピングを学習する手法を提案する。
論文 参考訳(メタデータ) (2021-11-05T17:50:44Z) - Identity Enhanced Residual Image Denoising [61.75610647978973]
我々は、アイデンティティマッピングモジュールのチェーンと、画像の復号化のための残像アーキテクチャの残像からなる、完全な畳み込みネットワークモデルを学ぶ。
提案するネットワークは,従来の最先端・CNNアルゴリズムよりも極めて高い数値精度と画像品質を実現している。
論文 参考訳(メタデータ) (2020-04-26T04:52:22Z) - Attention Based Real Image Restoration [48.933507352496726]
深層畳み込みニューラルネットワークは、合成劣化を含む画像に対してより良い性能を発揮する。
本稿では,新しい1段ブラインド実画像復元ネットワーク(R$2$Net)を提案する。
論文 参考訳(メタデータ) (2020-04-26T04:21:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。