論文の概要: CoordX: Accelerating Implicit Neural Representation with a Split MLP
Architecture
- arxiv url: http://arxiv.org/abs/2201.12425v1
- Date: Fri, 28 Jan 2022 21:30:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 11:15:28.447108
- Title: CoordX: Accelerating Implicit Neural Representation with a Split MLP
Architecture
- Title(参考訳): CoordX: 分割型MLPアーキテクチャによる暗黙のニューラル表現の高速化
- Authors: Ruofan Liang, Hongyi Sun, Nandita Vijaykumar
- Abstract要約: 多層パーセプトロン(MLP)を用いた暗黙の神経表現は、近年、様々なタスクで注目されている。
座標に基づく表現の推論と訓練を高速化する新しい分割アーキテクチャであるCoordXを提案する。
画像,映像,3次元形状表現および描画タスクのベースラインモデルと比較して,最大2.92倍のスピードアップを示す。
- 参考スコア(独自算出の注目度): 2.6912336656165805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit neural representations with multi-layer perceptrons (MLPs) have
recently gained prominence for a wide variety of tasks such as novel view
synthesis and 3D object representation and rendering. However, a significant
challenge with these representations is that both training and inference with
an MLP over a large number of input coordinates to learn and represent an
image, video, or 3D object, require large amounts of computation and incur long
processing times. In this work, we aim to accelerate inference and training of
coordinate-based MLPs for implicit neural representations by proposing a new
split MLP architecture, CoordX. With CoordX, the initial layers are split to
learn each dimension of the input coordinates separately. The intermediate
features are then fused by the last layers to generate the learned signal at
the corresponding coordinate point. This significantly reduces the amount of
computation required and leads to large speedups in training and inference,
while achieving similar accuracy as the baseline MLP. This approach thus aims
at first learning functions that are a decomposition of the original signal and
then fusing them to generate the learned signal. Our proposed architecture can
be generally used for many implicit neural representation tasks with no
additional memory overheads. We demonstrate a speedup of up to 2.92x compared
to the baseline model for image, video, and 3D shape representation and
rendering tasks.
- Abstract(参考訳): 多層パーセプトロン(MLP)を用いた暗黙的神経表現は、近年、新しいビュー合成や3Dオブジェクト表現やレンダリングなど、様々なタスクで注目されている。
しかし、これらの表現の重大な課題は、画像、ビデオ、または3Dオブジェクトを学習し、表現するために、多数の入力座標に対するMLPによるトレーニングと推論の両方が大量の計算と長い処理時間を必要とすることである。
本研究では,新たな分割型MLPアーキテクチャであるCoordXを提案することにより,暗黙的ニューラル表現のための座標ベースMLPの推論と訓練を高速化することを目的とする。
CoordXでは、初期層を分割して入力座標の各次元を個別に学習する。
中間の特徴は最後の層によって融合され、対応する座標点で学習信号を生成する。
これにより、必要な計算量が大幅に削減され、トレーニングや推論のスピードアップが大きくなり、ベースラインMLPと同じような精度が達成される。
このアプローチは、元の信号の分解である最初の学習機能を目標とし、学習した信号を生成するためにそれらを融合させる。
提案アーキテクチャは,多くの暗黙的ニューラル表現タスクにおいて,メモリオーバーヘッドを伴わずに利用できる。
画像,映像,3次元形状表現およびレンダリングタスクのベースラインモデルと比較して,最大2.92倍の高速化を示す。
関連論文リスト
- Coordinates Are NOT Lonely -- Codebook Prior Helps Implicit Neural 3D
Representations [29.756718435405983]
暗黙的な3D表現は、表面やシーンの再構築や新しいビュー合成において、印象的な成果を上げている。
ニューラル・レージアンス・フィールド(Neural Radiance Field、NeRF)とその変種のような既存のアプローチは、通常、密度の高い入力ビューを必要とする。
暗黙的な3次元表現のための座標モデルCoCo-INRを提案する。
論文 参考訳(メタデータ) (2022-10-20T11:13:50Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - ReLU Fields: The Little Non-linearity That Could [62.228229880658404]
我々は,高忠実度結果の保持を可能にするグリッドベース表現に対する最小の変更点について検討する。
このようなアプローチが最先端技術と競合することを示します。
論文 参考訳(メタデータ) (2022-05-22T13:42:31Z) - UNeXt: MLP-based Rapid Medical Image Segmentation Network [80.16644725886968]
UNetとその最新の拡張であるTransUNetは、ここ数年で主要な医療画像分割手法である。
画像分割のための畳み込み多層パーセプトロンネットワークUNeXtを提案する。
パラメータ数を72倍に減らし,計算複雑性を68倍に減らし,推論速度を10倍に改善し,セグメンテーション性能も向上した。
論文 参考訳(メタデータ) (2022-03-09T18:58:22Z) - MINER: Multiscale Implicit Neural Representations [43.36327238440042]
本稿では,大規模信号の効率的な高分解能表現を目的とした新しいニューラル信号表現を提案する。
マルチスケールの暗黙的神経表現(MINER)における重要な革新は、ラプラシアピラミッドによる内部表現である。
我々は、パラメータの25%未満、メモリフットプリントの33%、ACORNのような競合技術が同じ表現誤差に達するのに10%の時間を必要とすることを示した。
論文 参考訳(メタデータ) (2022-02-07T21:49:33Z) - Meta-Learning Sparse Implicit Neural Representations [69.15490627853629]
入射神経表現は、一般的な信号を表す新しい道である。
現在のアプローチは、多数の信号やデータセットに対してスケールすることが難しい。
メタ学習型スパースニューラル表現は,高密度メタ学習モデルよりもはるかに少ない損失が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T18:02:53Z) - Graph-Based 3D Multi-Person Pose Estimation Using Multi-View Images [79.70127290464514]
我々は,タスクを2つの段階,すなわち人物のローカライゼーションとポーズ推定に分解する。
また,効率的なメッセージパッシングのための3つのタスク固有グラフニューラルネットワークを提案する。
提案手法は,CMU Panoptic と Shelf のデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-09-13T11:44:07Z) - ACORN: Adaptive Coordinate Networks for Neural Scene Representation [40.04760307540698]
現在の神経表現は、数十万以上のポリゴンを持つメガピクセルまたは3Dシーン以上の解像度で画像を正確に表現できません。
トレーニングや推論中にリソースを適応的に割り当てる新しいハイブリッド暗黙的ネットワークアーキテクチャとトレーニング戦略を紹介します。
ギガピクセル画像を40dB近いピーク信号対雑音比に収まる最初の実験を実証します。
論文 参考訳(メタデータ) (2021-05-06T16:21:38Z) - RepMLP: Re-parameterizing Convolutions into Fully-connected Layers for
Image Recognition [123.59890802196797]
画像認識のための多層パーセプトロン型ニューラルネットワーク構築ブロックであるRepMLPを提案する。
トレーニング中にRepMLP内に畳み込み層を構築し,それをFCにマージして推論を行う。
従来のCNNにRepMLPを挿入することで、ImageNetでは1.8%の精度、顔認識では2.9%、FLOPの低いCityscapeでは2.3%のmIoUを改善します。
論文 参考訳(メタデータ) (2021-05-05T06:17:40Z) - Learned Initializations for Optimizing Coordinate-Based Neural
Representations [47.408295381897815]
コーディネートベースのニューラル表現は、離散的な配列ベースの表現の代替として大きな可能性を示してきた。
完全連結ネットワークの初期重みパラメータを学習するために,標準的なメタ学習アルゴリズムを適用することを提案する。
本研究では,2次元画像の表現,CTスキャンの再構成,2次元画像観察から3次元形状やシーンを復元するなど,様々なタスクにまたがってこれらのメリットを探求する。
論文 参考訳(メタデータ) (2020-12-03T18:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。