論文の概要: NeuBTF: Neural fields for BTF encoding and transfer
- arxiv url: http://arxiv.org/abs/2307.01199v1
- Date: Mon, 3 Jul 2023 17:59:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 12:02:49.852348
- Title: NeuBTF: Neural fields for BTF encoding and transfer
- Title(参考訳): NeuBTF:BTF符号化と転送のためのニューラルネットワーク
- Authors: Carlos Rodriguez-Pardo, Konstantinos Kazatzis, Jorge Lopez-Moreno,
Elena Garces
- Abstract要約: 本稿では,BTF圧縮,タイリング,外挿といった問題に対処する新しい神経材料表現を提案する。
本手法では,この入力画像の構造的特徴にニューラルBTFを条件付けるために,インプットとして誘導画像を用いる。
私たちのフレームワークのすべてのコンポーネントは、最小パラメータ数と計算複雑性でBTF符号化品質を最大化するように設計されています。
- 参考スコア(独自算出の注目度): 2.868883216530741
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Neural material representations are becoming a popular way to represent
materials for rendering. They are more expressive than analytic models and
occupy less memory than tabulated BTFs. However, existing neural materials are
immutable, meaning that their output for a certain query of UVs, camera, and
light vector is fixed once they are trained. While this is practical when there
is no need to edit the material, it can become very limiting when the fragment
of the material used for training is too small or not tileable, which
frequently happens when the material has been captured with a
gonioreflectometer. In this paper, we propose a novel neural material
representation which jointly tackles the problems of BTF compression, tiling,
and extrapolation. At test time, our method uses a guidance image as input to
condition the neural BTF to the structural features of this input image. Then,
the neural BTF can be queried as a regular BTF using UVs, camera, and light
vectors. Every component in our framework is purposefully designed to maximize
BTF encoding quality at minimal parameter count and computational complexity,
achieving competitive compression rates compared with previous work. We
demonstrate the results of our method on a variety of synthetic and captured
materials, showing its generality and capacity to learn to represent many
optical properties.
- Abstract(参考訳): ニューラルマテリアル表現は、レンダリングの材料を表現する一般的な方法になりつつある。
解析モデルよりも表現力が高く、タブ化されたBTFよりも少ないメモリを占有する。
しかし、既存のニューラルネットワーク材料は不変であり、訓練された後にUV、カメラ、光ベクトルの特定のクエリに対する出力が固定される。
これは、材料を編集する必要がなければ実用的であるが、トレーニングに使用する材料の破片が小さすぎる場合や、タイル式でない場合、ゴニオルエレクトロメータで捕獲された場合に頻繁に発生する場合、非常に制限される。
本稿では,btf圧縮,タイリング,外挿といった問題に共同で取り組む新しい神経材料表現を提案する。
本手法では,この入力画像の構造的特徴にニューラルBTFを条件付けるために,インプットとして誘導画像を用いる。
次に、UV、カメラ、光ベクトルを用いて、ニューラルBTFを通常のBTFとしてクエリすることができる。
我々のフレームワークの全てのコンポーネントは、最小限のパラメータ数と計算の複雑さでbtfエンコーディング品質を最大化するために意図的に設計されています。
本手法は, 様々な合成材料, 捕集材料に応用され, 様々な光学特性を学習するための汎用性と能力を示す。
関連論文リスト
- NeRFCodec: Neural Feature Compression Meets Neural Radiance Fields for Memory-Efficient Scene Representation [22.151167286623416]
メモリ効率のよいシーン表現のための非線形変換,量子化,エントロピー符号化を統合したエンドツーエンドのNeRF圧縮フレームワークを提案する。
提案手法は既存のNeRF圧縮法より優れており、0.5MBのメモリ予算で高品質な新規ビュー合成を可能にする。
論文 参考訳(メタデータ) (2024-04-02T15:49:00Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Progressive Fourier Neural Representation for Sequential Video
Compilation [75.43041679717376]
連続学習によって動機づけられたこの研究は、シーケンシャルエンコーディングセッションを通じて、複数の複雑なビデオデータに対して、ニューラル暗黙表現を蓄積し、転送する方法を研究する。
本稿では,FFNR(Progressive Fourier Neural Representation)という,FFNR(Progressive Fourier Neural Representation)という,FFNR(Progressive Fourier Neural Representation)という手法を提案する。
我々は,UVG8/17とDAVIS50のビデオシーケンスベンチマークでPFNR法を検証し,強力な連続学習ベースラインよりも優れた性能向上を実現した。
論文 参考訳(メタデータ) (2023-06-20T06:02:19Z) - Retinexformer: One-stage Retinex-based Transformer for Low-light Image
Enhancement [96.09255345336639]
低照度画像の高精細化のために,原理化された1段Retinex-based Framework (ORF) を定式化する。
ORFはまず照明情報を推定し、低照度画像を照らす。
我々のアルゴリズムであるRetinexformerは13のベンチマークで最先端の手法を大幅に上回っている。
論文 参考訳(メタデータ) (2023-03-12T16:54:08Z) - QFF: Quantized Fourier Features for Neural Field Representations [28.82293263445964]
我々は、QFF(Quantized Fourier Features)を用いることで、モデルのサイズが小さくなり、トレーニングが速くなり、複数のアプリケーションの品質が向上することを示した。
QFFは簡単にコーディングでき、高速に計算でき、多くのニューラルネットワーク表現に加えてシンプルなドロップインとして機能する。
論文 参考訳(メタデータ) (2022-12-02T00:11:22Z) - "One-Shot" Reduction of Additive Artifacts in Medical Images [17.354879155345376]
深層学習の力を利用するワンショット医用画像アーティファクトリダクション(OSAR)について,事前訓練された汎用ネットワークを使わずに紹介する。
具体的には,テスト時に入力画像から合成したデータを用いて,軽量な画像固有アーティファクト削減ネットワークを訓練する。
提案手法は, 試験時間を短縮して, 定性的に, 定量的に, 最先端の工芸品よりも優れた工芸品を削減できることを示す。
論文 参考訳(メタデータ) (2021-10-23T18:35:00Z) - Generative Modelling of BRDF Textures from Flash Images [50.660026124025265]
我々は、容易にキャプチャ、セマンティックな編集、一貫した、視覚素材の外観の効率よく再現できる潜在空間を学習する。
2番目のステップでは、材料コードに基づいて、私たちの方法は、BRDFモデルパラメータの無限で多様な空間フィールドを生成します。
論文 参考訳(メタデータ) (2021-02-23T18:45:18Z) - Non-line-of-Sight Imaging via Neural Transient Fields [52.91826472034646]
NLOS(non-Line-of-Sight)イメージングのためのニューラルモデリングフレームワークを提案する。
最近のNeRF(Neural Radiance Field)アプローチにインスパイアされた我々は、ニューラルネットワーク(NeTF)を表現するために多層パーセプトロン(MLP)を使用する。
共焦点と非共焦点の両方に適用可能な球状ボリュームnetf再構成パイプラインを定式化する。
論文 参考訳(メタデータ) (2021-01-02T05:20:54Z) - Neural Sparse Representation for Image Restoration [116.72107034624344]
スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
論文 参考訳(メタデータ) (2020-06-08T05:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。