論文の概要: Versatile Neural Processes for Learning Implicit Neural Representations
- arxiv url: http://arxiv.org/abs/2301.08883v1
- Date: Sat, 21 Jan 2023 04:08:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 15:59:50.761405
- Title: Versatile Neural Processes for Learning Implicit Neural Representations
- Title(参考訳): 入射型ニューラル表現学習のための可逆的ニューラルプロセス
- Authors: Zongyu Guo, Cuiling Lan, Zhizheng Zhang, Zhibo Chen, Yan Lu
- Abstract要約: 本稿では,近似関数の能力を大幅に向上させるVersatile Neural Processs (VNP)を提案する。
具体的には、より少ない情報的コンテキストトークンを生成するボトルネックエンコーダを導入し、高い計算コストを軽減した。
提案したVNPが1D, 2D, 3D信号を含む様々なタスクに対して有効であることを示す。
- 参考スコア(独自算出の注目度): 57.090658265140384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Representing a signal as a continuous function parameterized by neural
network (a.k.a. Implicit Neural Representations, INRs) has attracted increasing
attention in recent years. Neural Processes (NPs), which model the
distributions over functions conditioned on partial observations (context set),
provide a practical solution for fast inference of continuous functions.
However, existing NP architectures suffer from inferior modeling capability for
complex signals. In this paper, we propose an efficient NP framework dubbed
Versatile Neural Processes (VNP), which largely increases the capability of
approximating functions. Specifically, we introduce a bottleneck encoder that
produces fewer and informative context tokens, relieving the high computational
cost while providing high modeling capability. At the decoder side, we
hierarchically learn multiple global latent variables that jointly model the
global structure and the uncertainty of a function, enabling our model to
capture the distribution of complex signals. We demonstrate the effectiveness
of the proposed VNP on a variety of tasks involving 1D, 2D and 3D signals.
Particularly, our method shows promise in learning accurate INRs w.r.t. a 3D
scene without further finetuning.
- Abstract(参考訳): 近年,ニューラルネットワーク(Inmplicit Neural Representations, INRs)によってパラメータ化された連続関数としての信号の表現が注目されている。
部分的観測(コンテキスト集合)に基づく関数上の分布をモデル化するニューラルプロセス(nps)は、連続関数の高速推論のための実用的なソリューションを提供する。
しかし、既存のNPアーキテクチャは複雑な信号のモデリング能力に劣る。
本稿では,VNP(Versatile Neural Processes)と呼ばれる効率的なNPフレームワークを提案する。
具体的には,高いモデリング能力を提供しながら,高い計算コストを軽減し,より少ないかつ情報的なコンテキストトークンを生成するボトルネックエンコーダを導入する。
デコーダ側では,グローバル構造と関数の不確かさを協調的にモデル化する複数のグローバル潜在変数を階層的に学習し,複雑な信号の分布を捉えることができる。
1D, 2D, 3D信号を含む様々なタスクにおけるVNPの有効性を示す。
特に本手法は,高精度な3dシーンの学習に有望であることを示す。
関連論文リスト
- Implicit Neural Representations with Fourier Kolmogorov-Arnold Networks [4.499833362998488]
入射神経表現(INR)は、複雑な信号の連続的および分解非依存的な表現を提供するためにニューラルネットワークを使用する。
提案したFKANは、第1層のフーリエ級数としてモデル化された学習可能なアクティベーション関数を用いて、タスク固有の周波数成分を効果的に制御し、学習する。
実験結果から,提案したFKANモデルは,最先端の3つのベースラインスキームよりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-09-14T05:53:33Z) - Convolutional Conditional Neural Processes [6.532867867011488]
この理論は神経過程を3つの方法で前進させる。
ConvNPは、変換分散と呼ばれる対称性で構築することで、データ効率を向上させる。
GNPは神経過程の予測において依存関係を直接パラメライズする。
AR CNPは、モデルやトレーニング手順を変更することなく、ニューラルネットワークをトレーニングし、テスト時には、自己回帰的な方法でモデルをロールアウトする。
論文 参考訳(メタデータ) (2024-08-18T19:53:38Z) - Attention Beats Linear for Fast Implicit Neural Representation Generation [13.203243059083533]
本稿では,局所的注意層(LAL)と大域的表現ベクトルからなる注意型局所INR(ANR)を提案する。
インスタンス固有の表現とインスタンスに依存しないANRパラメータにより、ターゲット信号は連続関数として十分に再構成される。
論文 参考訳(メタデータ) (2024-07-22T03:52:18Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - Neural Implicit Dictionary via Mixture-of-Expert Training [111.08941206369508]
ニューラルインシシット辞書(NID)を学習することで、データとトレーニング効率の両方を達成する汎用INRフレームワークを提案する。
我々のNIDは、所望の関数空間にまたがるように調整された座標ベースのImpworksのグループを組み立てる。
実験の結果,NIDは最大98%の入力データで2次元画像や3次元シーンの再現を2桁高速化できることがわかった。
論文 参考訳(メタデータ) (2022-07-08T05:07:19Z) - Neural Diffusion Processes [12.744250155946503]
そこで我々は, 関数上の豊富な分布から, 有限限界を通してサンプルを学習するニューラル拡散過程 (NDP) を提案する。
我々はNDPが真のベイズ後部に近い機能的分布を捉えることを実証的に示す。
NDPは、回帰、暗黙のハイパーマージン化、非ガウスの後方予測、グローバル最適化など、様々な下流タスクを可能にする。
論文 参考訳(メタデータ) (2022-06-08T16:13:04Z) - CDiNN -Convex Difference Neural Networks [0.8122270502556374]
reluアクティベーション関数を持つニューラルネットワークは、普遍関数近似が非スムース関数として関数マッピングを学ぶことが示されている。
ICNNと呼ばれる新しいニューラルネットワークアーキテクチャは、凸入力として出力を学習する。
論文 参考訳(メタデータ) (2021-03-31T17:31:16Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Deep Polynomial Neural Networks [77.70761658507507]
$Pi$Netsは拡張に基づいた関数近似の新しいクラスである。
$Pi$Netsは、画像生成、顔検証、および3Dメッシュ表現学習という3つの困難なタスクで、最先端の結果を生成する。
論文 参考訳(メタデータ) (2020-06-20T16:23:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。