論文の概要: MINR: Efficient Implicit Neural Representations for Multi-Image Encoding
- arxiv url: http://arxiv.org/abs/2508.13471v1
- Date: Tue, 19 Aug 2025 03:05:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.777837
- Title: MINR: Efficient Implicit Neural Representations for Multi-Image Encoding
- Title(参考訳): MINR:マルチ画像符号化のための効率的な命令型ニューラル表現
- Authors: Wenyong Zhou, Taiqiang Wu, Zhengwu Liu, Yuxin Cheng, Chen Zhang, Ngai Wong,
- Abstract要約: Inlicit Neural Representations (INR)は、暗黙の連続関数を通じて離散信号をパラメータ化することを目的としている。
我々は、マルチイメージを効率的にエンコードするために、特定のレイヤを共有するMINRを提案する。
MINRは100枚の画像を効果的に処理し、34dBの平均ピーク信号-雑音比(PSNR)を維持する。
- 参考スコア(独自算出の注目度): 10.161354612863295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit Neural Representations (INRs) aim to parameterize discrete signals through implicit continuous functions. However, formulating each image with a separate neural network~(typically, a Multi-Layer Perceptron (MLP)) leads to computational and storage inefficiencies when encoding multi-images. To address this issue, we propose MINR, sharing specific layers to encode multi-image efficiently. We first compare the layer-wise weight distributions for several trained INRs and find that corresponding intermediate layers follow highly similar distribution patterns. Motivated by this, we share these intermediate layers across multiple images while preserving the input and output layers as input-specific. In addition, we design an extra novel projection layer for each image to capture its unique features. Experimental results on image reconstruction and super-resolution tasks demonstrate that MINR can save up to 60\% parameters while maintaining comparable performance. Particularly, MINR scales effectively to handle 100 images, maintaining an average peak signal-to-noise ratio (PSNR) of 34 dB. Further analysis of various backbones proves the robustness of the proposed MINR.
- Abstract(参考訳): Inlicit Neural Representations (INR)は、暗黙の連続関数を通じて離散信号をパラメータ化することを目的としている。
しかし、各画像を独立したニューラルネットワークで定式化する(典型的には、Multi-Layer Perceptron (MLP))ことで、マルチイメージを符号化する際の計算と記憶の効率が低下する。
この問題に対処するために,マルチイメージを効率的にエンコードするための特定のレイヤを共有するMINRを提案する。
まず、複数のトレーニングされたINRの層間重量分布を比較し、対応する中間層が極めて類似した分布パターンに従うことを発見した。
これを動機として、入力層と出力層を入力固有として保存しながら、これらの中間層を複数の画像にわたって共有する。
さらに,各画像の特徴を捉えるために,新たなプロジェクション層を設計する。
画像再構成と超分解能タスクの実験結果から,MINRは最大60倍のパラメータを保存でき,性能は同等であることがわかった。
特に、MINRは100枚の画像を扱うために効果的にスケールし、平均ピーク信号-雑音比(PSNR)は34dBである。
様々なバックボーンのさらなる解析は、提案したMINRの堅牢性を証明している。
関連論文リスト
- OSDM-MReg: Multimodal Image Registration based One Step Diffusion Model [8.619958921346184]
マルチモーダルリモートセンシング画像登録は、データ融合と解析のために異なるセンサからの画像を整列する。
我々は,新しいマルチモーダル画像登録フレームワークであるOSDM-MRegを提案する。
実験は、様々なマルチモーダル登録タスクにおいて、精度と効率が優れていることを示す。
論文 参考訳(メタデータ) (2025-04-08T13:32:56Z) - Layer- and Timestep-Adaptive Differentiable Token Compression Ratios for Efficient Diffusion Transformers [55.87192133758051]
Diffusion Transformer (DiTs)は、最先端(SOTA)画像生成の品質を達成したが、レイテンシとメモリ非効率に悩まされている。
圧縮比の異なる動的DiT推論フレームワークであるDiffCRを提案する。
論文 参考訳(メタデータ) (2024-12-22T02:04:17Z) - SL$^{2}$A-INR: Single-Layer Learnable Activation for Implicit Neural Representation [6.572456394600755]
Inlicit Neural Representation (INR)は、ニューラルネットワークを利用して、座標入力を対応する属性に変換することで、視覚関連領域において大きな進歩をもたらした。
我々は,INRアーキテクチャに新しいアプローチを導入することで,これらの課題を緩和できることを示す。
具体的には,シングルレイヤの学習可能なアクティベーション関数と従来のReLUアクティベーションを用いた合成を組み合わせたハイブリッドネットワークSL$2$A-INRを提案する。
論文 参考訳(メタデータ) (2024-09-17T02:02:15Z) - Invertible Residual Rescaling Models [46.28263683643467]
Invertible Rescaling Networks (IRNs)とその変種は、画像再スケーリングのような様々な画像処理タスクにおいて顕著な成果をみせた。
Invertible Residual Rescaling Models (IRRM) は,高解像度画像と高解像度画像との複射を特定の分布で学習することにより,画像再スケーリングを実現する。
我々のIRRMは,x4再スケーリングにおいて,それぞれ最低0.3dBのPSNRゲインを有し,60%のパラメータと50%のFLOPしか使用していない。
論文 参考訳(メタデータ) (2024-05-05T14:14:49Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - Multi-Stage Progressive Image Restoration [167.6852235432918]
本稿では、これらの競合する目標を最適にバランスできる新しい相乗的設計を提案する。
本提案では, 劣化した入力の復元関数を段階的に学習する多段階アーキテクチャを提案する。
MPRNetという名前の密接な相互接続型マルチステージアーキテクチャは、10のデータセットに対して強力なパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2021-02-04T18:57:07Z) - MDCN: Multi-scale Dense Cross Network for Image Super-Resolution [35.59973281360541]
本稿では,より少ないパラメータと少ない実行時間で優れた性能を実現するマルチスケールDense Cross Network (MDCN)を提案する。
MDCNは多層密閉ブロック(MDCB)、階層的特徴蒸留ブロック(HFDB)、動的再構成ブロック(DRB)からなる。
論文 参考訳(メタデータ) (2020-08-30T03:50:19Z) - Cross-Scale Internal Graph Neural Network for Image Super-Resolution [147.77050877373674]
自然画像における非局所的な自己相似性は、画像修復に有効な先行研究として、よく研究されている。
単一の画像超解像(SISR)の場合、既存のディープ非局所法のほとんどは、低解像度(LR)入力画像と同じ規模のパッチしか利用していない。
これは、新しいクロススケールな内部グラフニューラルネットワーク(IGNN)を用いて実現される。
論文 参考訳(メタデータ) (2020-06-30T10:48:40Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。