論文の概要: DINER: Disorder-Invariant Implicit Neural Representation
- arxiv url: http://arxiv.org/abs/2211.07871v1
- Date: Tue, 15 Nov 2022 03:34:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 15:37:32.494255
- Title: DINER: Disorder-Invariant Implicit Neural Representation
- Title(参考訳): DINER: 障害不変型インプシットニューラル表現
- Authors: Shaowen Xie, Hao Zhu, Zhen Liu, Qi Zhang, You Zhou, Xun Cao, Zhan Ma
- Abstract要約: 入射神経表現(INR)は、信号の属性を対応する座標の関数として特徴づける。
本稿では、従来のINRバックボーンにハッシュテーブルを付加することにより、障害不変な暗黙的神経表現(DINER)を提案する。
- 参考スコア(独自算出の注目度): 33.10256713209207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit neural representation (INR) characterizes the attributes of a signal
as a function of corresponding coordinates which emerges as a sharp weapon for
solving inverse problems. However, the capacity of INR is limited by the
spectral bias in the network training. In this paper, we find that such a
frequency-related problem could be largely solved by re-arranging the
coordinates of the input signal, for which we propose the disorder-invariant
implicit neural representation (DINER) by augmenting a hash-table to a
traditional INR backbone. Given discrete signals sharing the same histogram of
attributes and different arrangement orders, the hash-table could project the
coordinates into the same distribution for which the mapped signal can be
better modeled using the subsequent INR network, leading to significantly
alleviated spectral bias. Experiments not only reveal the generalization of the
DINER for different INR backbones (MLP vs. SIREN) and various tasks
(image/video representation, phase retrieval, and refractive index recovery)
but also show the superiority over the state-of-the-art algorithms both in
quality and speed.
- Abstract(参考訳): 入射神経表現(INR)は、信号の属性を対応する座標の関数として特徴づけ、逆問題を解決するための鋭い武器として現れる。
しかし、INRの容量はネットワークトレーニングにおけるスペクトルバイアスによって制限される。
本稿では,従来のINRバックボーンにハッシュテーブルを付加することにより,障害不変の暗黙的ニューラル表現(DINER)を提案する。
同じ属性のヒストグラムと異なる配置順序を共有する離散的な信号が与えられると、ハッシュテーブルは座標を後のinrネットワークを用いてより良くモデル化できる同じ分布に投影し、スペクトルバイアスを大幅に軽減することができる。
実験では、異なるINRバックボーン(MLP vs. SIREN)と様々なタスク(画像/ビデオ表現、位相検索、屈折率回復)に対するDINERの一般化だけでなく、品質と速度の両方において最先端のアルゴリズムよりも優れていることを示す。
関連論文リスト
- Single-Layer Learnable Activation for Implicit Neural Representation (SL$^{2}$A-INR) [6.572456394600755]
ニューラルネットワークを利用して、座標入力を対応する属性に変換するインプシット表現(INR)は、視覚関連領域において大きな進歩をもたらした。
SL$2$A-INR を単層学習可能なアクティベーション関数として提案し,従来の ReLU ベースの有効性を推し進める。
提案手法は,画像表現,3次元形状再構成,単一画像超解像,CT再構成,新しいビューなど,多様なタスクに優れる。
論文 参考訳(メタデータ) (2024-09-17T02:02:15Z) - Learning Transferable Features for Implicit Neural Representations [37.12083836826336]
Inlicit Neural representations (INR) は、逆問題やニューラルレンダリングなど、様々な応用で成功している。
我々は新しいINRトレーニングフレームワークSTRAINERを導入し、新しい信号にINRを適合させるトランスファー可能な特徴を学習する。
我々は,複数の領域内および領域外信号適合タスクおよび逆問題に対するSTRAINERの評価を行った。
論文 参考訳(メタデータ) (2024-09-15T00:53:44Z) - Conv-INR: Convolutional Implicit Neural Representation for Multimodal Visual Signals [2.7195102129095003]
Inlicit Neural representation (INR) は近年,信号表現の有望なパラダイムとして浮上している。
本稿では,畳み込みに基づく最初のINRモデルであるConv-INRを提案する。
論文 参考訳(メタデータ) (2024-06-06T16:52:42Z) - Locality-Aware Generalizable Implicit Neural Representation [54.93702310461174]
一般化可能な暗黙的ニューラル表現(INR)は、単一の連続関数が複数のデータインスタンスを表現することを可能にする。
本稿では、変換器エンコーダと局所性を考慮したINRデコーダを組み合わせた一般化可能なINRのための新しいフレームワークを提案する。
我々のフレームワークは、従来の一般化可能なINRよりも大幅に優れており、下流タスクにおける局所性を考慮した潜在能力の有効性を検証している。
論文 参考訳(メタデータ) (2023-10-09T11:26:58Z) - Disorder-invariant Implicit Neural Representation [32.510321385245774]
入射神経表現(INR)は、信号の属性を対応する座標の関数として特徴づける。
本稿では、従来のINRバックボーンにハッシュテーブルを付加することにより、障害不変な暗黙的神経表現(DINER)を提案する。
論文 参考訳(メタデータ) (2023-04-03T09:28:48Z) - Regularize implicit neural representation by itself [48.194276790352006]
Inlicit Neural Representation Regularizer (INRR) と呼ばれる正則化器を提案し、Inlicit Neural Representation (INR) の一般化能力を向上させる。
提案したINRRは、行列の行/列間の類似度を測定する学習されたディリクレエネルギー(DE)に基づいている。
また、収束軌道やマルチスケール類似性のような運動量法を含む、INRRから派生した一連の特性を明らかにした。
論文 参考訳(メタデータ) (2023-03-27T04:11:08Z) - Modality-Agnostic Variational Compression of Implicit Neural
Representations [96.35492043867104]
Inlicit Neural Representation (INR) としてパラメータ化されたデータの関数的ビューに基づくモーダリティ非依存型ニューラル圧縮アルゴリズムを提案する。
潜時符号化と疎性の間のギャップを埋めて、ソフトゲーティング機構に非直線的にマッピングされたコンパクト潜時表現を得る。
このような潜在表現のデータセットを得た後、ニューラル圧縮を用いてモーダリティ非依存空間におけるレート/歪みトレードオフを直接最適化する。
論文 参考訳(メタデータ) (2023-01-23T15:22:42Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - Neural Implicit Dictionary via Mixture-of-Expert Training [111.08941206369508]
ニューラルインシシット辞書(NID)を学習することで、データとトレーニング効率の両方を達成する汎用INRフレームワークを提案する。
我々のNIDは、所望の関数空間にまたがるように調整された座標ベースのImpworksのグループを組み立てる。
実験の結果,NIDは最大98%の入力データで2次元画像や3次元シーンの再現を2桁高速化できることがわかった。
論文 参考訳(メタデータ) (2022-07-08T05:07:19Z) - Deep Networks for Direction-of-Arrival Estimation in Low SNR [89.45026632977456]
我々は,真の配列多様体行列の変異チャネルデータから学習した畳み込みニューラルネットワーク(CNN)を導入する。
我々は低SNR体制でCNNを訓練し、すべてのSNRでDoAを予測する。
私たちの堅牢なソリューションは、ワイヤレスアレイセンサーから音響マイクロフォンやソナーまで、いくつかの分野に適用できます。
論文 参考訳(メタデータ) (2020-11-17T12:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。