論文の概要: AutoInt: Automatic Integration for Fast Neural Volume Rendering
- arxiv url: http://arxiv.org/abs/2012.01714v1
- Date: Thu, 3 Dec 2020 05:46:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 15:02:18.819781
- Title: AutoInt: Automatic Integration for Fast Neural Volume Rendering
- Title(参考訳): AutoInt: 高速なニューラルボリュームレンダリングのための自動統合
- Authors: David B. Lindell, Julien N. P. Martel, Gordon Wetzstein
- Abstract要約: 暗黙的ニューラル表現ネットワークを用いて、積分に対する効率的でクローズドな解を学習するための新しいフレームワークを提案する。
我々は,高速なニューラルボリュームレンダリングを実現するために,フォトリアリスティックな要件を10倍以上に改善したことを示す。
- 参考スコア(独自算出の注目度): 51.46232518888791
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Numerical integration is a foundational technique in scientific computing and
is at the core of many computer vision applications. Among these applications,
implicit neural volume rendering has recently been proposed as a new paradigm
for view synthesis, achieving photorealistic image quality. However, a
fundamental obstacle to making these methods practical is the extreme
computational and memory requirements caused by the required volume
integrations along the rendered rays during training and inference. Millions of
rays, each requiring hundreds of forward passes through a neural network are
needed to approximate those integrations with Monte Carlo sampling. Here, we
propose automatic integration, a new framework for learning efficient,
closed-form solutions to integrals using implicit neural representation
networks. For training, we instantiate the computational graph corresponding to
the derivative of the implicit neural representation. The graph is fitted to
the signal to integrate. After optimization, we reassemble the graph to obtain
a network that represents the antiderivative. By the fundamental theorem of
calculus, this enables the calculation of any definite integral in two
evaluations of the network. Using this approach, we demonstrate a greater than
10x improvement in computation requirements, enabling fast neural volume
rendering.
- Abstract(参考訳): 数値積分は科学計算における基礎技術であり、多くのコンピュータビジョンアプリケーションの中核である。
これらのアプリケーションの中で、暗黙的なニューラルボリュームレンダリングがビュー合成の新しいパラダイムとして提案され、フォトリアリスティックな画質を実現している。
しかし、これらの手法を実用化するための基本的な障害は、訓練と推論中にレンダリングされた線に沿って必要な体積積分によって生じる極端な計算とメモリ要求である。
モンテカルロサンプリングとの統合を近似するためには、数百の前方通過を必要とする数百万光線が必要になります。
本稿では,暗黙的ニューラルネットワークを用いて,効率的な閉形式解法を積分に学習するための新しいフレームワークであるautomatic integrationを提案する。
学習のために、暗黙の神経表現の導出に対応する計算グラフをインスタンス化する。
グラフは信号に合致して統合する。
最適化後、グラフを再組み立てして、抗誘導体を表すネットワークを得る。
計算の基本定理により、これはネットワークの2つの評価における任意の定積分の計算を可能にする。
このアプローチを用いて,計算要求の10倍以上の改善を実証し,高速なニューラルボリュームレンダリングを実現する。
関連論文リスト
- Neural Control Variates with Automatic Integration [49.91408797261987]
本稿では,任意のニューラルネットワークアーキテクチャから学習可能なパラメトリック制御関数を構築するための新しい手法を提案する。
我々はこのネットワークを用いて積分器の反微分を近似する。
我々はウォーク・オン・スフィア・アルゴリズムを用いて偏微分方程式を解くために本手法を適用した。
論文 参考訳(メタデータ) (2024-09-23T06:04:28Z) - From Fourier to Neural ODEs: Flow Matching for Modeling Complex Systems [20.006163951844357]
ニューラル常微分方程式(NODE)を学習するためのシミュレーション不要なフレームワークを提案する。
フーリエ解析を用いて、ノイズの多い観測データから時間的および潜在的高次空間勾配を推定する。
我々の手法は、トレーニング時間、ダイナミクス予測、堅牢性の観点から、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-05-19T13:15:23Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Fixed Integral Neural Networks [2.2118683064997273]
学習した関数の積分を$f$で表す方法を提案する。
これにより、ニューラルネットワークの正確な積分を計算し、制約されたニューラルネットワークをパラメータ化することができる。
また、多くのアプリケーションに必要な条件である正の$f$を制約する手法も導入する。
論文 参考訳(メタデータ) (2023-07-26T18:16:43Z) - Neural Network Representation of Time Integrators [0.0]
ネットワークの重みとバイアス、すなわちトレーニングは不要である。
単純な質量減衰剛性ケースの統合に必要なアーキテクチャを例として挙げる。
論文 参考訳(メタデータ) (2022-11-30T14:38:59Z) - Interactive Volume Visualization via Multi-Resolution Hash Encoding
based Neural Representation [29.797933404619606]
我々は、最新のGPUコアとよく設計されたレンダリングアルゴリズムを用いて、インタラクティブにトレースボリュームニューラル表現(10-60fps)を描画できることを示します。
我々の神経表現は、高忠実性テラセル (PSNR > 30dB) とコンパクト (10-1000倍小さい) でもある。
極端に大規模なボリュームデータをサポートするために、我々は、私たちの神経表現トレーニングをテラスケールにスケールアップできる効率的なコア外のトレーニング戦略も開発しています。
論文 参考訳(メタデータ) (2022-07-23T23:04:19Z) - Instant Neural Graphics Primitives with a Multiresolution Hash Encoding [67.33850633281803]
品質を犠牲にすることなく、より小さなネットワークを使用できる汎用的な新しい入力符号化を提案する。
小さなニューラルネットワークは、勾配降下によって値が最適化された訓練可能な特徴ベクトルの多分解能ハッシュテーブルによって拡張される。
数桁の高速化を実現し、高品質なニューラルネットワークプリミティブを数秒でトレーニングすることができる。
論文 参考訳(メタデータ) (2022-01-16T07:22:47Z) - Continuous-in-Depth Neural Networks [107.47887213490134]
まず最初に、このリッチな意味では、ResNetsは意味のある動的でないことを示します。
次に、ニューラルネットワークモデルが連続力学系を表現することを実証する。
ResNetアーキテクチャの詳細な一般化としてContinuousNetを紹介します。
論文 参考訳(メタデータ) (2020-08-05T22:54:09Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - Integration of Leaky-Integrate-and-Fire-Neurons in Deep Learning
Architectures [0.0]
生物学的にインスパイアされたニューロンモデルが情報符号化の斬新で効率的な方法を提供することを示す。
LIF単位に対する簡単な更新ルールを微分方程式から導出した。
本手法をIRIS花のイメージデータセットに適用し,画像分類タスクにおけるLIFニューロンのトレーニングに使用することができることを示す。
論文 参考訳(メタデータ) (2020-04-28T13:57:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。