論文の概要: Fixed Integral Neural Networks
- arxiv url: http://arxiv.org/abs/2307.14439v1
- Date: Wed, 26 Jul 2023 18:16:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-28 16:46:43.345044
- Title: Fixed Integral Neural Networks
- Title(参考訳): 固定積分型ニューラルネットワーク
- Authors: Ryan Kortvelesy
- Abstract要約: 学習した関数の積分を$f$で表す方法を提案する。
これにより、ニューラルネットワークの正確な積分を計算し、制約されたニューラルネットワークをパラメータ化することができる。
また、多くのアプリケーションに必要な条件である正の$f$を制約する手法も導入する。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is often useful to perform integration over learned functions represented
by neural networks. However, this integration is usually performed numerically,
as analytical integration over learned functions (especially neural networks)
is generally viewed as intractable. In this work, we present a method for
representing the analytical integral of a learned function $f$. This allows the
exact integral of a neural network to be computed, and enables constrained
neural networks to be parametrised by applying constraints directly to the
integral. Crucially, we also introduce a method to constrain $f$ to be
positive, a necessary condition for many applications (e.g. probability
distributions, distance metrics, etc). Finally, we introduce several
applications where our fixed-integral neural network (FINN) can be utilised.
- Abstract(参考訳): ニューラルネットワークで表される学習関数に対して統合を行うのに有用であることが多い。
しかし、この積分は通常数値的に行われ、学習関数(特にニューラルネットワーク)上の解析的積分は一般に難解であると見なされる。
本研究では、学習した関数の積分を$f$で表す方法を提案する。
これにより、ニューラルネットワークの正確な積分を計算でき、制約付きニューラルネットワークを積分に直接制約を適用してパラメータ化することができる。
重要な点として、多くのアプリケーション(例えば確率分布、距離メトリクスなど)に必要な条件として、$f$を正に制限する手法も紹介する。
最後に,固定積分ニューラルネットワーク(finn)を活用可能なアプリケーションをいくつか紹介する。
関連論文リスト
- Neural Control Variates with Automatic Integration [49.91408797261987]
本稿では,任意のニューラルネットワークアーキテクチャから学習可能なパラメトリック制御関数を構築するための新しい手法を提案する。
我々はこのネットワークを用いて積分器の反微分を近似する。
我々はウォーク・オン・スフィア・アルゴリズムを用いて偏微分方程式を解くために本手法を適用した。
論文 参考訳(メタデータ) (2024-09-23T06:04:28Z) - Simple initialization and parametrization of sinusoidal networks via
their kernel bandwidth [92.25666446274188]
従来の活性化機能を持つネットワークの代替として、活性化を伴う正弦波ニューラルネットワークが提案されている。
まず,このような正弦波ニューラルネットワークの簡易版を提案する。
次に、ニューラルタンジェントカーネルの観点からこれらのネットワークの挙動を分析し、そのカーネルが調整可能な帯域幅を持つ低域フィルタを近似することを実証する。
論文 参考訳(メタデータ) (2022-11-26T07:41:48Z) - NeuralEF: Deconstructing Kernels by Deep Neural Networks [47.54733625351363]
従来のNystr"om式に基づく非パラメトリックなソリューションはスケーラビリティの問題に悩まされる。
最近の研究はパラメトリックなアプローチ、すなわち固有関数を近似するためにニューラルネットワークを訓練している。
教師なしおよび教師なしの学習問題の空間に一般化する新たな目的関数を用いて,これらの問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-04-30T05:31:07Z) - Reachability analysis of neural networks using mixed monotonicity [0.0]
本稿では,入力不確実性の条件下でのフィードフォワードニューラルネットワークの出力集合の過度近似を計算するための新しい到達可能性解析ツールを提案する。
提案手法は、力学系の到達可能性解析のための既存の混合単調性法をニューラルネットワークに適用する。
論文 参考訳(メタデータ) (2021-11-15T11:35:18Z) - Optimal Approximation with Sparse Neural Networks and Applications [0.0]
深い疎結合ニューラルネットワークを用いて、関数クラスの複雑性を$L(mathbb Rd)$で測定する。
また、ニューラルネットワークを誘導する関数の可算コレクションである表現システムについても紹介する。
次に、レート歪曲理論とウェッジレット構成を用いて、$beta$マンガ的関数と呼ばれるクラスの複雑性を分析する。
論文 参考訳(メタデータ) (2021-08-14T05:14:13Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - AutoInt: Automatic Integration for Fast Neural Volume Rendering [51.46232518888791]
暗黙的ニューラル表現ネットワークを用いて、積分に対する効率的でクローズドな解を学習するための新しいフレームワークを提案する。
我々は,高速なニューラルボリュームレンダリングを実現するために,フォトリアリスティックな要件を10倍以上に改善したことを示す。
論文 参考訳(メタデータ) (2020-12-03T05:46:10Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z) - Q-NET: A Network for Low-Dimensional Integrals of Neural Proxies [1.63460693863947]
我々は、積分を推定する必要がある関数のプロキシとして、汎用的でシンプルな人工知能のクラス、シグモダル普遍近似器を提案する。
我々は、トレーニングされたプロキシのパラメータを使って正確な積分を計算する、Q-NETと呼ばれる固定ネットワークのファミリーを設計する。
本稿では,逆レンダリング,プロシージャノイズの生成,可視化,シミュレーションなど,いくつかの応用において,この方式の利点を強調した。
論文 参考訳(メタデータ) (2020-06-25T13:36:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。