論文の概要: Regularize implicit neural representation by itself
- arxiv url: http://arxiv.org/abs/2303.15484v1
- Date: Mon, 27 Mar 2023 04:11:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 17:44:27.294792
- Title: Regularize implicit neural representation by itself
- Title(参考訳): 自己による暗黙的神経表現の正規化
- Authors: Zhemin Li, Hongxia Wang, Deyu Meng
- Abstract要約: Inlicit Neural Representation Regularizer (INRR) と呼ばれる正則化器を提案し、Inlicit Neural Representation (INR) の一般化能力を向上させる。
提案したINRRは、行列の行/列間の類似度を測定する学習されたディリクレエネルギー(DE)に基づいている。
また、収束軌道やマルチスケール類似性のような運動量法を含む、INRRから派生した一連の特性を明らかにした。
- 参考スコア(独自算出の注目度): 48.194276790352006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a regularizer called Implicit Neural Representation
Regularizer (INRR) to improve the generalization ability of the Implicit Neural
Representation (INR). The INR is a fully connected network that can represent
signals with details not restricted by grid resolution. However, its
generalization ability could be improved, especially with non-uniformly sampled
data. The proposed INRR is based on learned Dirichlet Energy (DE) that measures
similarities between rows/columns of the matrix. The smoothness of the
Laplacian matrix is further integrated by parameterizing DE with a tiny INR.
INRR improves the generalization of INR in signal representation by perfectly
integrating the signal's self-similarity with the smoothness of the Laplacian
matrix. Through well-designed numerical experiments, the paper also reveals a
series of properties derived from INRR, including momentum methods like
convergence trajectory and multi-scale similarity. Moreover, the proposed
method could improve the performance of other signal representation methods.
- Abstract(参考訳): Inlicit Neural Representation Regularizer (INRR) と呼ばれる正則化器を提案し、Inlicit Neural Representation (INR) の一般化能力を向上させる。
INRは完全に接続されたネットワークであり、グリッド解像度で制限されていない詳細で信号を表現できる。
しかし、その一般化能力は、特に一様でないサンプルデータによって改善される可能性がある。
提案したINRRは、行列の行/列間の類似度を測定する学習されたディリクレエネルギー(DE)に基づいている。
ラプラシアン行列の滑らかさは、de を小さい inr でパラメータ化することでさらに統合される。
INRRは信号の自己相似性をラプラス行列の滑らかさと完全に統合することで信号表現におけるINRの一般化を改善する。
また、よく設計された数値実験を通じて、収束軌道やマルチスケール類似性のような運動量法を含む、INRRから派生した一連の特性を明らかにした。
さらに,提案手法は,他の信号表現法の性能を向上させることができる。
関連論文リスト
- ISR: Invertible Symbolic Regression [7.499800486499609]
Invertible Symbolic Regression(インバーティブル・シンボリック・レグレッション・レグレッション)は、あるデータセットの入力と出力の間の分析的関係を生成する機械学習技術である。
INNのアフィン結合ブロックをシンボリック・フレームワークに変換し、エンドツーエンドで微分可能なシンボリック・インバータブル・アーキテクチャを実現する。
ISRは密度推定タスクの(象徴的な)正規化フローとして機能することを示す。
論文 参考訳(メタデータ) (2024-05-10T23:20:46Z) - Disorder-invariant Implicit Neural Representation [32.510321385245774]
入射神経表現(INR)は、信号の属性を対応する座標の関数として特徴づける。
本稿では、従来のINRバックボーンにハッシュテーブルを付加することにより、障害不変な暗黙的神経表現(DINER)を提案する。
論文 参考訳(メタデータ) (2023-04-03T09:28:48Z) - DINER: Disorder-Invariant Implicit Neural Representation [33.10256713209207]
入射神経表現(INR)は、信号の属性を対応する座標の関数として特徴づける。
本稿では、従来のINRバックボーンにハッシュテーブルを付加することにより、障害不変な暗黙的神経表現(DINER)を提案する。
論文 参考訳(メタデータ) (2022-11-15T03:34:24Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - Transformers as Meta-Learners for Implicit Neural Representations [10.673855995948736]
Inlicit Neural Representations (INRs) は近年、離散表現よりもその利点を示してきた。
InRのハイパーネットとしてTransformerを利用する定式化を提案し,INRの重みの集合を直接構築する。
本稿では,3次元オブジェクトに対する2次元画像回帰とビュー合成を含む,異なるタスクや領域でINRを構築するための手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-08-04T17:54:38Z) - Multi-Head ReLU Implicit Neural Representation Networks [3.04585143845864]
暗黙的神経表現(INR)のための新しいマルチヘッド多層パーセプトロン(MLP)構造
本稿では,提案モデルが従来のReLUネットワークの特別なバイアスに悩まされず,優れた性能を有することを示す。
論文 参考訳(メタデータ) (2021-10-07T13:27:35Z) - Joint Network Topology Inference via Structured Fusion Regularization [70.30364652829164]
結合ネットワークトポロジ推論は、異種グラフ信号から複数のグラフラプラシア行列を学習する標準的な問題を表す。
新規な構造化融合正規化に基づく一般グラフ推定器を提案する。
提案するグラフ推定器は高い計算効率と厳密な理論保証の両方を享受できることを示す。
論文 参考訳(メタデータ) (2021-03-05T04:42:32Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Controllable Orthogonalization in Training DNNs [96.1365404059924]
直交性はディープニューラルネットワーク(DNN)のトレーニングに広く用いられている。
本稿では,ニュートン反復(ONI)を用いた計算効率が高く,数値的に安定な直交化法を提案する。
本稿では,画像分類ネットワークの性能向上のために,最適化の利点と表現能力の低下との間に最適なトレードオフを与えるために,直交性を効果的に制御する手法を提案する。
また、ONIは、スペクトル正規化と同様に、ネットワークのリプシッツ連続性を維持することにより、GAN(Generative Adversarial Network)のトレーニングを安定化させることを示した。
論文 参考訳(メタデータ) (2020-04-02T10:14:27Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。