論文の概要: Modulated Periodic Activations for Generalizable Local Functional
Representations
- arxiv url: http://arxiv.org/abs/2104.03960v1
- Date: Thu, 8 Apr 2021 17:59:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 14:15:08.043293
- Title: Modulated Periodic Activations for Generalizable Local Functional
Representations
- Title(参考訳): 一般化可能な局所的機能表現のための変調周期的活性化
- Authors: Ishit Mehta, Micha\"el Gharbi, Connelly Barnes, Eli Shechtman, Ravi
Ramamoorthi, Manmohan Chandraker
- Abstract要約: 我々は,複数のインスタンスに一般化し,最先端の忠実性を実現する新しい表現を提案する。
提案手法は,画像,映像,形状の汎用的な機能表現を生成し,単一信号に最適化された先行処理よりも高い再構成品質を実現する。
- 参考スコア(独自算出の注目度): 113.64179351957888
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-Layer Perceptrons (MLPs) make powerful functional representations for
sampling and reconstruction problems involving low-dimensional signals like
images,shapes and light fields. Recent works have significantly improved their
ability to represent high-frequency content by using periodic activations or
positional encodings. This often came at the expense of generalization: modern
methods are typically optimized for a single signal. We present a new
representation that generalizes to multiple instances and achieves
state-of-the-art fidelity. We use a dual-MLP architecture to encode the
signals. A synthesis network creates a functional mapping from a
low-dimensional input (e.g. pixel-position) to the output domain (e.g. RGB
color). A modulation network maps a latent code corresponding to the target
signal to parameters that modulate the periodic activations of the synthesis
network. We also propose a local-functional representation which enables
generalization. The signal's domain is partitioned into a regular grid,with
each tile represented by a latent code. At test time, the signal is encoded
with high-fidelity by inferring (or directly optimizing) the latent code-book.
Our approach produces generalizable functional representations of images,
videos and shapes, and achieves higher reconstruction quality than prior works
that are optimized for a single signal.
- Abstract(参考訳): 多層パーセプトロン(mlps)は、画像、形状、光場などの低次元信号を含むサンプリングおよび再構成問題に対して強力な機能表現を行う。
最近の研究は、周期的アクティベーションや位置エンコーディングを用いて、高周波コンテンツを表現する能力を大幅に改善している。
これはしばしば一般化の犠牲となり、現代の手法は1つの信号に最適化される。
我々は,複数のインスタンスに一般化し,最先端の忠実性を実現する新しい表現を提案する。
信号の符号化にはデュアルMLPアーキテクチャを用いる。
合成ネットワークは、低次元入力(例えば、)から機能マッピングを作成する。
pixel-position) を出力領域 (例)
RGB色)。
変調ネットワークは、ターゲット信号に対応する潜在コードを、合成ネットワークの周期的活性化を変調するパラメータにマッピングする。
また,一般化可能な局所関数表現を提案する。
信号のドメインは通常のグリッドに分割され、各タイルは潜在コードで表現される。
テスト時、信号は遅延コードブックを推論(または直接最適化)することにより高忠実度で符号化される。
提案手法は,画像,映像,形状の汎用的な機能表現を生成し,単一信号に最適化された先行処理よりも高い再構成品質を実現する。
関連論文リスト
- FINER++: Building a Family of Variable-periodic Functions for Activating Implicit Neural Representation [39.116375158815515]
Inlicit Neural Representation (INR)は、信号処理の分野で革命を引き起こしている。
INR技術は「周波数」特定スペクトルバイアスとキャパシティ・コンバージェンスギャップに悩まされる。
既存の周期的/非周期的アクティベーション関数を可変周期的関数に拡張することにより、FINER++フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-28T09:24:57Z) - Towards Signal Processing In Large Language Models [46.76681147411957]
本稿では,Large Language Model (LLM) 内で信号処理を適用するという考え方を紹介する。
古典的なフーリエ変換とフーリエ変換のような学習可能な時間周波数表現の並列性を描く。
GPTのようなアーキテクチャでは、より高速な収束を実現し、性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-10T13:51:52Z) - In-Domain GAN Inversion for Faithful Reconstruction and Editability [132.68255553099834]
ドメイン誘導型ドメイン正規化とエンコーダで構成されたドメイン内GANインバージョンを提案し、事前学習されたGANモデルのネイティブ潜在空間における反転コードを正規化する。
エンコーダ構造,開始反転点,および逆パラメータ空間の効果を総合的に解析し,再構成品質と編集特性とのトレードオフを観察する。
論文 参考訳(メタデータ) (2023-09-25T08:42:06Z) - Neural Fourier Filter Bank [18.52741992605852]
本稿では, 効率的かつ高精度な再構築手法を提案する。
ウェーブレットにインスパイアされた我々は、信号が空間的にも周波数的にも分解されるニューラルネットワークを学習する。
論文 参考訳(メタデータ) (2022-12-04T03:45:08Z) - PINs: Progressive Implicit Networks for Multi-Scale Neural
Representations [68.73195473089324]
周波数符号化のインクリメンタルな集合に階層構造を露出するプログレッシブな位置符号化を提案する。
本モデルでは,広帯域のシーンを正確に再構成し,プログレッシブなディテールでシーン表現を学習する。
いくつかの2次元および3次元データセットの実験では、ベースラインと比較して、再構築精度、表現能力、トレーニング速度が改善されている。
論文 参考訳(メタデータ) (2022-02-09T20:33:37Z) - Meta-Learning Sparse Implicit Neural Representations [69.15490627853629]
入射神経表現は、一般的な信号を表す新しい道である。
現在のアプローチは、多数の信号やデータセットに対してスケールすることが難しい。
メタ学習型スパースニューラル表現は,高密度メタ学習モデルよりもはるかに少ない損失が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T18:02:53Z) - Seeing Implicit Neural Representations as Fourier Series [13.216389226310987]
Inlicit Neural Representation (INR)は低次元問題領域における高周波関数を表現するために多層パーセプトロンを使用する。
これらの表現は、複雑な3Dオブジェクトやシーンに関連するタスクについて、最先端の結果を得た。
この研究は2つの方法間の接続を分析し、フーリエ写像されたパーセプトロンが構造的に1つの隠蔽層SIRENと似ていることを示す。
論文 参考訳(メタデータ) (2021-09-01T08:40:20Z) - Learnable Fourier Features for Multi-DimensionalSpatial Positional
Encoding [96.9752763607738]
本稿では,学習可能なフーリエ特徴に基づく位置符号化手法を提案する。
本研究では,多次元位置符号化のための学習可能な特徴表現が既存の手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-05T04:40:18Z) - Learned Initializations for Optimizing Coordinate-Based Neural
Representations [47.408295381897815]
コーディネートベースのニューラル表現は、離散的な配列ベースの表現の代替として大きな可能性を示してきた。
完全連結ネットワークの初期重みパラメータを学習するために,標準的なメタ学習アルゴリズムを適用することを提案する。
本研究では,2次元画像の表現,CTスキャンの再構成,2次元画像観察から3次元形状やシーンを復元するなど,様々なタスクにまたがってこれらのメリットを探求する。
論文 参考訳(メタデータ) (2020-12-03T18:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。