論文の概要: Implicit Neural Representations and the Algebra of Complex Wavelets
- arxiv url: http://arxiv.org/abs/2310.00545v1
- Date: Sun, 1 Oct 2023 02:01:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 03:40:07.112119
- Title: Implicit Neural Representations and the Algebra of Complex Wavelets
- Title(参考訳): 暗黙的神経表現と複素ウェーブレットの代数
- Authors: T. Mitchell Roddenberry, Vishwanath Saragadam, Maarten V. de Hoop,
Richard G. Baraniuk
- Abstract要約: Inlicit Neural representations (INRs) はユークリッド領域におけるシグナルの表現法として有用である。
ユークリッド空間上の多層パーセプトロン(MLP)として画像をパラメータ化することにより、INRは通常の離散表現では明らかでない信号の結合やスペクトルの特徴を効果的に表現する。
- 参考スコア(独自算出の注目度): 36.311212480600794
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit neural representations (INRs) have arisen as useful methods for
representing signals on Euclidean domains. By parameterizing an image as a
multilayer perceptron (MLP) on Euclidean space, INRs effectively represent
signals in a way that couples spatial and spectral features of the signal that
is not obvious in the usual discrete representation, paving the way for
continuous signal processing and machine learning approaches that were not
previously possible. Although INRs using sinusoidal activation functions have
been studied in terms of Fourier theory, recent works have shown the advantage
of using wavelets instead of sinusoids as activation functions, due to their
ability to simultaneously localize in both frequency and space. In this work,
we approach such INRs and demonstrate how they resolve high-frequency features
of signals from coarse approximations done in the first layer of the MLP. This
leads to multiple prescriptions for the design of INR architectures, including
the use of complex wavelets, decoupling of low and band-pass approximations,
and initialization schemes based on the singularities of the desired signal.
- Abstract(参考訳): Inlicit Neural representations (INRs) はユークリッド領域におけるシグナルの表現法として有用である。
ユークリッド空間上の多層パーセプトロン(MLP)として画像をパラメータ化することにより、INRは、通常の離散表現では明らかでない信号の空間的特徴とスペクトル的特徴を結合する方法で信号を効果的に表現し、これまで不可能だった連続的な信号処理と機械学習アプローチの道を開く。
正弦波の活性化関数を用いたINRはフーリエ理論で研究されているが、近年の研究では、正弦波の代わりにウェーブレットを活性化関数として用いる利点が示されている。
本研究では、これらのINRにアプローチし、MLPの第1層で行う粗い近似から信号の高周波特性をいかに解決するかを示す。
これにより、複雑なウェーブレットの使用、低域および帯域通過近似の分離、および所望の信号の特異性に基づく初期化スキームを含む、INRアーキテクチャの設計のための複数の処方則が導かれる。
関連論文リスト
- FreSh: Frequency Shifting for Accelerated Neural Representation Learning [11.175745750843484]
Inlicit Neural Representations (INR) は、画像、ビデオ、三次元形状などの信号を多層パーセプトロン(MLP)を用いて連続的に表現するための強力なアプローチとして近年注目されている。
低周波の詳細は低周波バイアスを示し、高周波の詳細を正確に捉える能力を制限することが知られている。
本稿では、初期出力の周波数スペクトルと目標信号の周波数スペクトルを一致させる周波数シフト(FreSh)を提案する。
論文 参考訳(メタデータ) (2024-10-07T14:05:57Z) - Synergistic Integration of Coordinate Network and Tensorial Feature for Improving Neural Radiance Fields from Sparse Inputs [26.901819636977912]
本稿では,低周波信号に対する強いバイアスで知られる座標ネットワークと多面表現を統合する手法を提案する。
提案手法は,スパース入力を持つ静的および動的NeRFのベースラインモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-13T15:42:46Z) - A Sampling Theory Perspective on Activations for Implicit Neural
Representations [73.6637608397055]
Inlicit Neural Representations (INR) は、コンパクトで微分可能なエンティティとして信号の符号化で人気を博している。
サンプリング理論の観点からこれらの活性化を包括的に分析する。
本研究により,INRと併用されていないシンクアクティベーションは,信号符号化に理論的に最適であることが判明した。
論文 参考訳(メタデータ) (2024-02-08T05:52:45Z) - DINER: Disorder-Invariant Implicit Neural Representation [33.10256713209207]
入射神経表現(INR)は、信号の属性を対応する座標の関数として特徴づける。
本稿では、従来のINRバックボーンにハッシュテーブルを付加することにより、障害不変な暗黙的神経表現(DINER)を提案する。
論文 参考訳(メタデータ) (2022-11-15T03:34:24Z) - Meta-Learning Sparse Implicit Neural Representations [69.15490627853629]
入射神経表現は、一般的な信号を表す新しい道である。
現在のアプローチは、多数の信号やデータセットに対してスケールすることが難しい。
メタ学習型スパースニューラル表現は,高密度メタ学習モデルよりもはるかに少ない損失が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T18:02:53Z) - Multi-Head ReLU Implicit Neural Representation Networks [3.04585143845864]
暗黙的神経表現(INR)のための新しいマルチヘッド多層パーセプトロン(MLP)構造
本稿では,提案モデルが従来のReLUネットワークの特別なバイアスに悩まされず,優れた性能を有することを示す。
論文 参考訳(メタデータ) (2021-10-07T13:27:35Z) - Modulated Periodic Activations for Generalizable Local Functional
Representations [113.64179351957888]
我々は,複数のインスタンスに一般化し,最先端の忠実性を実現する新しい表現を提案する。
提案手法は,画像,映像,形状の汎用的な機能表現を生成し,単一信号に最適化された先行処理よりも高い再構成品質を実現する。
論文 参考訳(メタデータ) (2021-04-08T17:59:04Z) - Learning Frequency Domain Approximation for Binary Neural Networks [68.79904499480025]
フーリエ周波数領域における符号関数の勾配を正弦関数の組み合わせを用いて推定し,BNNの訓練を行う。
いくつかのベンチマークデータセットとニューラルネットワークの実験により、この手法で学習したバイナリネットワークが最先端の精度を達成することが示されている。
論文 参考訳(メタデータ) (2021-03-01T08:25:26Z) - Implicit Neural Representations with Periodic Activation Functions [109.2353097792111]
ニューラルネットワークによってパラメータ化される暗黙的に定義された、連続的な、微分可能な信号表現は、強力なパラダイムとして現れている。
暗黙的なニューラル表現に周期的アクティベーション関数を活用することを提案し、これらのネットワークは正弦波表現ネットワークまたはサイレンと呼ばれ、複雑な自然信号とその誘導体を表現するのに理想的であることを示す。
我々は、シリンズがどのようにして、特定のアイコン方程式、ポアソン方程式、ヘルムホルツ方程式や波動方程式などの挑戦的な境界値問題を解くことができるかを示す。
論文 参考訳(メタデータ) (2020-06-17T05:13:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。