論文の概要: Q-NET: A Network for Low-Dimensional Integrals of Neural Proxies
- arxiv url: http://arxiv.org/abs/2006.14396v2
- Date: Tue, 30 Mar 2021 10:53:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 02:38:07.071045
- Title: Q-NET: A Network for Low-Dimensional Integrals of Neural Proxies
- Title(参考訳): Q-NET: ニューラルネットワークの低次元積分のためのネットワーク
- Authors: Kartic Subr
- Abstract要約: 我々は、積分を推定する必要がある関数のプロキシとして、汎用的でシンプルな人工知能のクラス、シグモダル普遍近似器を提案する。
我々は、トレーニングされたプロキシのパラメータを使って正確な積分を計算する、Q-NETと呼ばれる固定ネットワークのファミリーを設計する。
本稿では,逆レンダリング,プロシージャノイズの生成,可視化,シミュレーションなど,いくつかの応用において,この方式の利点を強調した。
- 参考スコア(独自算出の注目度): 1.63460693863947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many applications require the calculation of integrals of multidimensional
functions. A general and popular procedure is to estimate integrals by
averaging multiple evaluations of the function. Often, each evaluation of the
function entails costly computations. The use of a \emph{proxy} or surrogate
for the true function is useful if repeated evaluations are necessary. The
proxy is even more useful if its integral is known analytically and can be
calculated practically. We propose the use of a versatile yet simple class of
artificial neural networks -- sigmoidal universal approximators -- as a proxy
for functions whose integrals need to be estimated. We design a family of fixed
networks, which we call Q-NETs, that operate on parameters of a trained proxy
to calculate exact integrals over \emph{any subset of dimensions} of the input
domain. We identify transformations to the input space for which integrals may
be recalculated without resampling the integrand or retraining the proxy. We
highlight the benefits of this scheme for a few applications such as inverse
rendering, generation of procedural noise, visualization and simulation. The
proposed proxy is appealing in the following contexts: the dimensionality is
low ($<10$D); the estimation of integrals needs to be decoupled from the
sampling strategy; sparse, adaptive sampling is used; marginal functions need
to be known in functional form; or when powerful Single Instruction Multiple
Data/Thread (SIMD/SIMT) pipelines are available for computation.
- Abstract(参考訳): 多くの応用は多次元関数の積分の計算を必要とする。
一般的な一般的な手順は、関数の複数の評価を平均することで積分を推定することである。
関数の評価は、しばしばコストのかかる計算を必要とする。
真関数に対する \emph{proxy} または surrogate の使用は、繰り返し評価が必要な場合に有用である。
その積分が解析的に知られ、実質的に計算できるのであれば、プロキシはさらに有用である。
積分を推定する必要のある関数のプロキシとして,汎用的で単純な人工ニューラルネットワーク(sgmoidal universal approximators)の使用を提案する。
入力領域の 'emph{any subset of dimensions' 上で正確な積分を計算するために、訓練されたプロキシのパラメータを操作する、Q-NETと呼ばれる固定ネットワークのファミリーを設計する。
積分が再計算される入力空間への変換をインテグレードやプロキシの再トレーニングをすることなく特定する。
本稿では, 逆レンダリング, 手続き雑音の発生, 可視化, シミュレーションなどの応用において, この手法の利点を浮き彫りにする。
提案するプロキシは, 次元が低い(<10$D), 積分の推定をサンプリング戦略から切り離す必要がある, スパースで適応的なサンプリングを使用する, 限界関数を関数形式で知る必要がある, あるいは強力なシングルインストラクション多重データ/スレッド(SIMD/SIMT)パイプラインが計算に利用可能である,といった状況で魅力的なものだ。
関連論文リスト
- Neural Control Variates with Automatic Integration [49.91408797261987]
本稿では,任意のニューラルネットワークアーキテクチャから学習可能なパラメトリック制御関数を構築するための新しい手法を提案する。
我々はこのネットワークを用いて積分器の反微分を近似する。
我々はウォーク・オン・スフィア・アルゴリズムを用いて偏微分方程式を解くために本手法を適用した。
論文 参考訳(メタデータ) (2024-09-23T06:04:28Z) - Fixed Integral Neural Networks [2.2118683064997273]
学習した関数の積分を$f$で表す方法を提案する。
これにより、ニューラルネットワークの正確な積分を計算し、制約されたニューラルネットワークをパラメータ化することができる。
また、多くのアプリケーションに必要な条件である正の$f$を制約する手法も導入する。
論文 参考訳(メタデータ) (2023-07-26T18:16:43Z) - Efficient Parametric Approximations of Neural Network Function Space
Distance [6.117371161379209]
モデルパラメータとトレーニングデータの重要な特性をコンパクトに要約して、データセット全体を保存または/または反復することなく後で使用できるようにすることが、しばしば有用である。
我々は,FSD(Function Space Distance)をトレーニングセット上で推定することを検討する。
本稿では、線形化活性化TRick (LAFTR) を提案し、ReLUニューラルネットワークに対するFSDの効率的な近似を導出する。
論文 参考訳(メタデータ) (2023-02-07T15:09:23Z) - Computing Anti-Derivatives using Deep Neural Networks [3.42658286826597]
本稿では,Deep Neural Network アーキテクチャを用いて,関数のクローズドフォーム・アンチデリバティブを求めるアルゴリズムを提案する。
すべての積分に対して1つの方法を用いることで、我々のアルゴリズムは任意の精度で反微分を近似することができると主張している。
本稿では,楕円積分,フェルミ・ディラック積分,累積分布関数の閉形式式を得るための手法の適用について述べる。
論文 参考訳(メタデータ) (2022-09-19T15:16:47Z) - Provable General Function Class Representation Learning in Multitask
Bandits and MDPs [58.624124220900306]
マルチタスク表現学習は、サンプル効率を高めるために強化学習において一般的なアプローチである。
本研究では,解析結果を一般関数クラス表現に拡張する。
バンディットと線形MDPの一般関数クラスにおけるマルチタスク表現学習の利点を理論的に検証する。
論文 参考訳(メタデータ) (2022-05-31T11:36:42Z) - Statistically Meaningful Approximation: a Case Study on Approximating
Turing Machines with Transformers [50.85524803885483]
本研究は,統計的学習性を示すために近似ネットワークを必要とする統計有意(SM)近似の形式的定義を提案する。
回路とチューリングマシンの2つの機能クラスに対するSM近似について検討する。
論文 参考訳(メタデータ) (2021-07-28T04:28:55Z) - Efficient semidefinite-programming-based inference for binary and
multi-class MRFs [83.09715052229782]
分割関数やMAP推定をペアワイズMRFで効率的に計算する手法を提案する。
一般のバイナリMRFから完全多クラス設定への半定緩和を拡張し、解法を用いて再び効率的に解けるようなコンパクトな半定緩和を開発する。
論文 参考訳(メタデータ) (2020-12-04T15:36:29Z) - AutoInt: Automatic Integration for Fast Neural Volume Rendering [51.46232518888791]
暗黙的ニューラル表現ネットワークを用いて、積分に対する効率的でクローズドな解を学習するための新しいフレームワークを提案する。
我々は,高速なニューラルボリュームレンダリングを実現するために,フォトリアリスティックな要件を10倍以上に改善したことを示す。
論文 参考訳(メタデータ) (2020-12-03T05:46:10Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。