論文の概要: Conv-INR: Convolutional Implicit Neural Representation for Multimodal Visual Signals
- arxiv url: http://arxiv.org/abs/2406.04249v1
- Date: Thu, 6 Jun 2024 16:52:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 13:50:11.849535
- Title: Conv-INR: Convolutional Implicit Neural Representation for Multimodal Visual Signals
- Title(参考訳): Conv-INR:マルチモーダル視覚信号のための畳み込み型暗黙的ニューラル表現
- Authors: Zhicheng Cai,
- Abstract要約: Inlicit Neural representation (INR) は近年,信号表現の有望なパラダイムとして浮上している。
本稿では,畳み込みに基づく最初のINRモデルであるConv-INRを提案する。
- 参考スコア(独自算出の注目度): 2.7195102129095003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit neural representation (INR) has recently emerged as a promising paradigm for signal representations. Typically, INR is parameterized by a multiplayer perceptron (MLP) which takes the coordinates as the inputs and generates corresponding attributes of a signal. However, MLP-based INRs face two critical issues: i) individually considering each coordinate while ignoring the connections; ii) suffering from the spectral bias thus failing to learn high-frequency components. While target visual signals usually exhibit strong local structures and neighborhood dependencies, and high-frequency components are significant in these signals, the issues harm the representational capacity of INRs. This paper proposes Conv-INR, the first INR model fully based on convolution. Due to the inherent attributes of convolution, Conv-INR can simultaneously consider adjacent coordinates and learn high-frequency components effectively. Compared to existing MLP-based INRs, Conv-INR has better representational capacity and trainability without requiring primary function expansion. We conduct extensive experiments on four tasks, including image fitting, CT/MRI reconstruction, and novel view synthesis, Conv-INR all significantly surpasses existing MLP-based INRs, validating the effectiveness. Finally, we raise three reparameterization methods that can further enhance the performance of the vanilla Conv-INR without introducing any extra inference cost.
- Abstract(参考訳): Inlicit Neural representation (INR) は近年,信号表現の有望なパラダイムとして浮上している。
通常、INRはマルチプレイヤーパーセプトロン(MLP)によってパラメータ化され、座標を入力として取り、信号の対応する属性を生成する。
しかし、MLPベースのINRは2つの重大な問題に直面している。
一 接続を無視して各座標を個別に考慮すること
二 スペクトルバイアスに悩まされ、高周波成分を習得できないこと。
ターゲットの視覚信号は通常、強い局所構造と近傍依存性を示し、これらの信号には高周波成分が重要であるが、問題はINRの表現能力に悪影響を及ぼす。
本稿では,畳み込みに基づく最初のINRモデルであるConv-INRを提案する。
畳み込みの固有の特性のため、Conv-INRは隣接座標を同時に検討し、高周波成分を効果的に学習することができる。
既存のMLPベースのINRと比較して、Conv-INRは一次機能拡張を必要とせず、表現能力と訓練性を向上させる。
画像適合、CT/MRI再構成、新しいビュー合成を含む4つのタスクについて広範な実験を行い、Conv-INRは既存のMLPベースのINRを大幅に上回り、その効果を検証した。
最後に,バニラConv-INRの性能を高めるために,余分な推論コストを伴わずに3つの再パラメータ化手法を立案する。
関連論文リスト
- Single-Layer Learnable Activation for Implicit Neural Representation (SL$^{2}$A-INR) [6.572456394600755]
ニューラルネットワークを利用して、座標入力を対応する属性に変換するインプシット表現(INR)は、視覚関連領域において大きな進歩をもたらした。
SL$2$A-INR を単層学習可能なアクティベーション関数として提案し,従来の ReLU ベースの有効性を推し進める。
提案手法は,画像表現,3次元形状再構成,単一画像超解像,CT再構成,新しいビューなど,多様なタスクに優れる。
論文 参考訳(メタデータ) (2024-09-17T02:02:15Z) - Learning Transferable Features for Implicit Neural Representations [37.12083836826336]
Inlicit Neural representations (INR) は、逆問題やニューラルレンダリングなど、様々な応用で成功している。
我々は新しいINRトレーニングフレームワークSTRAINERを導入し、新しい信号にINRを適合させるトランスファー可能な特徴を学習する。
我々は,複数の領域内および領域外信号適合タスクおよび逆問題に対するSTRAINERの評価を行った。
論文 参考訳(メタデータ) (2024-09-15T00:53:44Z) - Attention Beats Linear for Fast Implicit Neural Representation Generation [13.203243059083533]
本稿では,局所的注意層(LAL)と大域的表現ベクトルからなる注意型局所INR(ANR)を提案する。
インスタンス固有の表現とインスタンスに依存しないANRパラメータにより、ターゲット信号は連続関数として十分に再構成される。
論文 参考訳(メタデータ) (2024-07-22T03:52:18Z) - INCODE: Implicit Neural Conditioning with Prior Knowledge Embeddings [4.639495398851869]
Inlicit Neural Representation (INR)は、複雑なデータの連続的かつ滑らかな表現を提供するためにニューラルネットワークを活用することで、信号表現に革命をもたらした。
InCODEは、深い事前知識を用いて、INRにおける正弦波ベースの活性化関数の制御を強化する新しいアプローチである。
提案手法は表現力に優れるだけでなく,音声,画像,3次元形状復元などの複雑な課題に対処する能力も拡張している。
論文 参考訳(メタデータ) (2023-10-28T23:16:49Z) - Modality-Agnostic Variational Compression of Implicit Neural
Representations [96.35492043867104]
Inlicit Neural Representation (INR) としてパラメータ化されたデータの関数的ビューに基づくモーダリティ非依存型ニューラル圧縮アルゴリズムを提案する。
潜時符号化と疎性の間のギャップを埋めて、ソフトゲーティング機構に非直線的にマッピングされたコンパクト潜時表現を得る。
このような潜在表現のデータセットを得た後、ニューラル圧縮を用いてモーダリティ非依存空間におけるレート/歪みトレードオフを直接最適化する。
論文 参考訳(メタデータ) (2023-01-23T15:22:42Z) - Versatile Neural Processes for Learning Implicit Neural Representations [57.090658265140384]
本稿では,近似関数の能力を大幅に向上させるVersatile Neural Processs (VNP)を提案する。
具体的には、より少ない情報的コンテキストトークンを生成するボトルネックエンコーダを導入し、高い計算コストを軽減した。
提案したVNPが1D, 2D, 3D信号を含む様々なタスクに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-01-21T04:08:46Z) - DINER: Disorder-Invariant Implicit Neural Representation [33.10256713209207]
入射神経表現(INR)は、信号の属性を対応する座標の関数として特徴づける。
本稿では、従来のINRバックボーンにハッシュテーブルを付加することにより、障害不変な暗黙的神経表現(DINER)を提案する。
論文 参考訳(メタデータ) (2022-11-15T03:34:24Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - Scalable Neural Video Representations with Learnable Positional Features [73.51591757726493]
我々は,学習可能な位置特徴(NVP)を用いて,映像を潜時符号として効果的に再生するニューラル表現の訓練方法を示す。
一般的なUVGベンチマークにおけるNVPの優位性を実証し,先行技術と比較して,NVPは2倍の速度(5分以内)で走行するだけでなく,符号化品質も34.07rightarrow$34.57(PSNR測定値で測定)に上回っている。
論文 参考訳(メタデータ) (2022-10-13T08:15:08Z) - Neural Implicit Dictionary via Mixture-of-Expert Training [111.08941206369508]
ニューラルインシシット辞書(NID)を学習することで、データとトレーニング効率の両方を達成する汎用INRフレームワークを提案する。
我々のNIDは、所望の関数空間にまたがるように調整された座標ベースのImpworksのグループを組み立てる。
実験の結果,NIDは最大98%の入力データで2次元画像や3次元シーンの再現を2桁高速化できることがわかった。
論文 参考訳(メタデータ) (2022-07-08T05:07:19Z) - Meta-Learning Sparse Implicit Neural Representations [69.15490627853629]
入射神経表現は、一般的な信号を表す新しい道である。
現在のアプローチは、多数の信号やデータセットに対してスケールすることが難しい。
メタ学習型スパースニューラル表現は,高密度メタ学習モデルよりもはるかに少ない損失が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T18:02:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。