論文の概要: AutoInt: Automatic Integration for Fast Neural Volume Rendering
- arxiv url: http://arxiv.org/abs/2012.01714v1
- Date: Thu, 3 Dec 2020 05:46:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 15:02:18.819781
- Title: AutoInt: Automatic Integration for Fast Neural Volume Rendering
- Title(参考訳): AutoInt: 高速なニューラルボリュームレンダリングのための自動統合
- Authors: David B. Lindell, Julien N. P. Martel, Gordon Wetzstein
- Abstract要約: 暗黙的ニューラル表現ネットワークを用いて、積分に対する効率的でクローズドな解を学習するための新しいフレームワークを提案する。
我々は,高速なニューラルボリュームレンダリングを実現するために,フォトリアリスティックな要件を10倍以上に改善したことを示す。
- 参考スコア(独自算出の注目度): 51.46232518888791
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Numerical integration is a foundational technique in scientific computing and
is at the core of many computer vision applications. Among these applications,
implicit neural volume rendering has recently been proposed as a new paradigm
for view synthesis, achieving photorealistic image quality. However, a
fundamental obstacle to making these methods practical is the extreme
computational and memory requirements caused by the required volume
integrations along the rendered rays during training and inference. Millions of
rays, each requiring hundreds of forward passes through a neural network are
needed to approximate those integrations with Monte Carlo sampling. Here, we
propose automatic integration, a new framework for learning efficient,
closed-form solutions to integrals using implicit neural representation
networks. For training, we instantiate the computational graph corresponding to
the derivative of the implicit neural representation. The graph is fitted to
the signal to integrate. After optimization, we reassemble the graph to obtain
a network that represents the antiderivative. By the fundamental theorem of
calculus, this enables the calculation of any definite integral in two
evaluations of the network. Using this approach, we demonstrate a greater than
10x improvement in computation requirements, enabling fast neural volume
rendering.
- Abstract(参考訳): 数値積分は科学計算における基礎技術であり、多くのコンピュータビジョンアプリケーションの中核である。
これらのアプリケーションの中で、暗黙的なニューラルボリュームレンダリングがビュー合成の新しいパラダイムとして提案され、フォトリアリスティックな画質を実現している。
しかし、これらの手法を実用化するための基本的な障害は、訓練と推論中にレンダリングされた線に沿って必要な体積積分によって生じる極端な計算とメモリ要求である。
モンテカルロサンプリングとの統合を近似するためには、数百の前方通過を必要とする数百万光線が必要になります。
本稿では,暗黙的ニューラルネットワークを用いて,効率的な閉形式解法を積分に学習するための新しいフレームワークであるautomatic integrationを提案する。
学習のために、暗黙の神経表現の導出に対応する計算グラフをインスタンス化する。
グラフは信号に合致して統合する。
最適化後、グラフを再組み立てして、抗誘導体を表すネットワークを得る。
計算の基本定理により、これはネットワークの2つの評価における任意の定積分の計算を可能にする。
このアプローチを用いて,計算要求の10倍以上の改善を実証し,高速なニューラルボリュームレンダリングを実現する。
関連論文リスト
- Generalizable Neural Fields as Partially Observed Neural Processes [16.202109517569145]
本稿では,ニューラル表現の大規模トレーニングを部分的に観察されたニューラルプロセスフレームワークの一部として考える新しいパラダイムを提案する。
このアプローチは、最先端の勾配に基づくメタラーニングアプローチとハイパーネットワークアプローチの両方より優れていることを実証する。
論文 参考訳(メタデータ) (2023-09-13T01:22:16Z) - Fixed Integral Neural Networks [2.2118683064997273]
学習した関数の積分を$f$で表す方法を提案する。
これにより、ニューラルネットワークの正確な積分を計算し、制約されたニューラルネットワークをパラメータ化することができる。
また、多くのアプリケーションに必要な条件である正の$f$を制約する手法も導入する。
論文 参考訳(メタデータ) (2023-07-26T18:16:43Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Neural Network Representation of Time Integrators [0.0]
ネットワークの重みとバイアス、すなわちトレーニングは不要である。
単純な質量減衰剛性ケースの統合に必要なアーキテクチャを例として挙げる。
論文 参考訳(メタデータ) (2022-11-30T14:38:59Z) - Interactive Volume Visualization via Multi-Resolution Hash Encoding
based Neural Representation [29.797933404619606]
我々は、最新のGPUコアとよく設計されたレンダリングアルゴリズムを用いて、インタラクティブにトレースボリュームニューラル表現(10-60fps)を描画できることを示します。
我々の神経表現は、高忠実性テラセル (PSNR > 30dB) とコンパクト (10-1000倍小さい) でもある。
極端に大規模なボリュームデータをサポートするために、我々は、私たちの神経表現トレーニングをテラスケールにスケールアップできる効率的なコア外のトレーニング戦略も開発しています。
論文 参考訳(メタデータ) (2022-07-23T23:04:19Z) - Instant Neural Graphics Primitives with a Multiresolution Hash Encoding [67.33850633281803]
品質を犠牲にすることなく、より小さなネットワークを使用できる汎用的な新しい入力符号化を提案する。
小さなニューラルネットワークは、勾配降下によって値が最適化された訓練可能な特徴ベクトルの多分解能ハッシュテーブルによって拡張される。
数桁の高速化を実現し、高品質なニューラルネットワークプリミティブを数秒でトレーニングすることができる。
論文 参考訳(メタデータ) (2022-01-16T07:22:47Z) - Continuous-in-Depth Neural Networks [107.47887213490134]
まず最初に、このリッチな意味では、ResNetsは意味のある動的でないことを示します。
次に、ニューラルネットワークモデルが連続力学系を表現することを実証する。
ResNetアーキテクチャの詳細な一般化としてContinuousNetを紹介します。
論文 参考訳(メタデータ) (2020-08-05T22:54:09Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - Integration of Leaky-Integrate-and-Fire-Neurons in Deep Learning
Architectures [0.0]
生物学的にインスパイアされたニューロンモデルが情報符号化の斬新で効率的な方法を提供することを示す。
LIF単位に対する簡単な更新ルールを微分方程式から導出した。
本手法をIRIS花のイメージデータセットに適用し,画像分類タスクにおけるLIFニューロンのトレーニングに使用することができることを示す。
論文 参考訳(メタデータ) (2020-04-28T13:57:42Z) - Geometrically Principled Connections in Graph Neural Networks [66.51286736506658]
我々は、幾何学的深層学習の新興分野におけるイノベーションの原動力は、幾何が依然として主要な推進力であるべきだと論じている。
グラフニューラルネットワークとコンピュータグラフィックスとデータ近似モデルとの関係:放射基底関数(RBF)
完全連結層とグラフ畳み込み演算子を組み合わせた新しいビルディングブロックであるアフィンスキップ接続を導入する。
論文 参考訳(メタデータ) (2020-04-06T13:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。