論文の概要: MINER: Multiscale Implicit Neural Representations
- arxiv url: http://arxiv.org/abs/2202.03532v1
- Date: Mon, 7 Feb 2022 21:49:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 06:07:10.966357
- Title: MINER: Multiscale Implicit Neural Representations
- Title(参考訳): MINER:マルチスケールインシシトニューラル表現
- Authors: Vishwanath Saragadam, Jasper Tan, Guha Balakrishnan, Richard G.
Baraniuk, Ashok Veeraraghavan
- Abstract要約: 本稿では,大規模信号の効率的な高分解能表現を目的とした新しいニューラル信号表現を提案する。
マルチスケールの暗黙的神経表現(MINER)における重要な革新は、ラプラシアピラミッドによる内部表現である。
我々は、パラメータの25%未満、メモリフットプリントの33%、ACORNのような競合技術が同じ表現誤差に達するのに10%の時間を必要とすることを示した。
- 参考スコア(独自算出の注目度): 43.36327238440042
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a new neural signal representation designed for the efficient
high-resolution representation of large-scale signals. The key innovation in
our multiscale implicit neural representation (MINER) is an internal
representation via a Laplacian pyramid, which provides a sparse multiscale
representation of the signal that captures orthogonal parts of the signal
across scales. We leverage the advantages of the Laplacian pyramid by
representing small disjoint patches of the pyramid at each scale with a tiny
MLP. This enables the capacity of the network to adaptively increase from
coarse to fine scales, and only represent parts of the signal with strong
signal energy. The parameters of each MLP are optimized from coarse-to-fine
scale which results in faster approximations at coarser scales, thereby
ultimately an extremely fast training process. We apply MINER to a range of
large-scale signal representation tasks, including gigapixel images and very
large point clouds, and demonstrate that it requires fewer than 25% of the
parameters, 33% of the memory footprint, and 10% of the computation time of
competing techniques such as ACORN to reach the same representation error.
- Abstract(参考訳): 大規模信号の効率的な高分解能表現を目的とした新しいニューラル信号表現を提案する。
当社のmultiscale implicit neural representation(miner)における重要なイノベーションは、ラプラシアンピラミッドによる内部表現です。
我々は,各スケールのピラミッドの小さな不整合パッチを小さなMLPで表現することで,ラプラシアピラミッドの利点を生かした。
これにより、ネットワークの容量を粗いものから細かいスケールに適応的に増加させ、信号の一部を強い信号エネルギーで表現できる。
各MLPのパラメータは粗いスケールから細かなスケールに最適化され、粗いスケールでの高速な近似が得られ、結果として極端に高速なトレーニングプロセスとなる。
我々は,ギガピクセル画像や非常に大きな点群を含む大規模信号表現タスクにMINERを適用し,パラメータの25%未満,メモリフットプリントの33%,ACORNなどの競合技術で同じ表現誤差に到達するためには10%の計算時間を必要とすることを示した。
関連論文リスト
- Attention Beats Linear for Fast Implicit Neural Representation Generation [13.203243059083533]
本稿では,局所的注意層(LAL)と大域的表現ベクトルからなる注意型局所INR(ANR)を提案する。
インスタンス固有の表現とインスタンスに依存しないANRパラメータにより、ターゲット信号は連続関数として十分に再構成される。
論文 参考訳(メタデータ) (2024-07-22T03:52:18Z) - Versatile Neural Processes for Learning Implicit Neural Representations [57.090658265140384]
本稿では,近似関数の能力を大幅に向上させるVersatile Neural Processs (VNP)を提案する。
具体的には、より少ない情報的コンテキストトークンを生成するボトルネックエンコーダを導入し、高い計算コストを軽減した。
提案したVNPが1D, 2D, 3D信号を含む様々なタスクに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-01-21T04:08:46Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - CoordX: Accelerating Implicit Neural Representation with a Split MLP
Architecture [2.6912336656165805]
多層パーセプトロン(MLP)を用いた暗黙の神経表現は、近年、様々なタスクで注目されている。
座標に基づく表現の推論と訓練を高速化する新しい分割アーキテクチャであるCoordXを提案する。
画像,映像,3次元形状表現および描画タスクのベースラインモデルと比較して,最大2.92倍のスピードアップを示す。
論文 参考訳(メタデータ) (2022-01-28T21:30:42Z) - Meta-Learning Sparse Implicit Neural Representations [69.15490627853629]
入射神経表現は、一般的な信号を表す新しい道である。
現在のアプローチは、多数の信号やデータセットに対してスケールすることが難しい。
メタ学習型スパースニューラル表現は,高密度メタ学習モデルよりもはるかに少ない損失が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T18:02:53Z) - ACORN: Adaptive Coordinate Networks for Neural Scene Representation [40.04760307540698]
現在の神経表現は、数十万以上のポリゴンを持つメガピクセルまたは3Dシーン以上の解像度で画像を正確に表現できません。
トレーニングや推論中にリソースを適応的に割り当てる新しいハイブリッド暗黙的ネットワークアーキテクチャとトレーニング戦略を紹介します。
ギガピクセル画像を40dB近いピーク信号対雑音比に収まる最初の実験を実証します。
論文 参考訳(メタデータ) (2021-05-06T16:21:38Z) - Modulated Periodic Activations for Generalizable Local Functional
Representations [113.64179351957888]
我々は,複数のインスタンスに一般化し,最先端の忠実性を実現する新しい表現を提案する。
提案手法は,画像,映像,形状の汎用的な機能表現を生成し,単一信号に最適化された先行処理よりも高い再構成品質を実現する。
論文 参考訳(メタデータ) (2021-04-08T17:59:04Z) - Learned Initializations for Optimizing Coordinate-Based Neural
Representations [47.408295381897815]
コーディネートベースのニューラル表現は、離散的な配列ベースの表現の代替として大きな可能性を示してきた。
完全連結ネットワークの初期重みパラメータを学習するために,標準的なメタ学習アルゴリズムを適用することを提案する。
本研究では,2次元画像の表現,CTスキャンの再構成,2次元画像観察から3次元形状やシーンを復元するなど,様々なタスクにまたがってこれらのメリットを探求する。
論文 参考訳(メタデータ) (2020-12-03T18:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。