論文の概要: Adaptive Training of INRs via Pruning and Densification
- arxiv url: http://arxiv.org/abs/2510.23943v1
- Date: Mon, 27 Oct 2025 23:52:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.686486
- Title: Adaptive Training of INRs via Pruning and Densification
- Title(参考訳): プルーニングとデンシフィケーションによるINRの適応的トレーニング
- Authors: Diana Aldana, João Paulo Lima, Daniel Csillag, Daniel Perazzo, Haoan Feng, Luiz Velho, Tiago Novello,
- Abstract要約: 本稿では、最適化の過程で暗黙的な神経表現を洗練させる適応的なトレーニングスキームであるAIReを紹介する。
提案手法では,表現能力を向上させるために,ニューロンプルーニング機構を用いて冗長性と入力周波数密度化を回避する。
コードと事前訓練されたモデルは、パブリック使用のためにリリースされる。
- 参考スコア(独自算出の注目度): 6.759337697337581
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Encoding input coordinates with sinusoidal functions into multilayer perceptrons (MLPs) has proven effective for implicit neural representations (INRs) of low-dimensional signals, enabling the modeling of high-frequency details. However, selecting appropriate input frequencies and architectures while managing parameter redundancy remains an open challenge, often addressed through heuristics and heavy hyperparameter optimization schemes. In this paper, we introduce AIRe ($\textbf{A}$daptive $\textbf{I}$mplicit neural $\textbf{Re}$presentation), an adaptive training scheme that refines the INR architecture over the course of optimization. Our method uses a neuron pruning mechanism to avoid redundancy and input frequency densification to improve representation capacity, leading to an improved trade-off between network size and reconstruction quality. For pruning, we first identify less-contributory neurons and apply a targeted weight decay to transfer their information to the remaining neurons, followed by structured pruning. Next, the densification stage adds input frequencies to spectrum regions where the signal underfits, expanding the representational basis. Through experiments on images and SDFs, we show that AIRe reduces model size while preserving, or even improving, reconstruction quality. Code and pretrained models will be released for public use.
- Abstract(参考訳): 正弦波関数を持つ入力座標を多層パーセプトロン(MLP)に符号化することは、低次元信号の暗黙的神経表現(INR)に有効であることが証明され、高周波の詳細のモデリングが可能となった。
しかし、パラメータ冗長性を管理しながら適切な入力周波数とアーキテクチャを選択することは、しばしばヒューリスティックスと重度ハイパーパラメータ最適化スキームを通じて対処されるオープンな課題である。
本稿では、最適化の過程でINRアーキテクチャを洗練させる適応型トレーニングスキームであるAIRe ($\textbf{A}$daptive $\textbf{I}$mplicit Neural $\textbf{Re}$presentationを紹介する。
提案手法では,ニューロンのプルーニング機構を用いて冗長性と入力周波数の密度化を回避し,表現能力の向上を実現し,ネットワークサイズと再構成品質のトレードオフを改善する。
刈り取りには,まず少ない分布ニューロンを同定し,その情報を残りのニューロンに伝達し,次いで構造化刈り取りを行う。
次に、密度化段階は、信号が不適合なスペクトル領域に入力周波数を追加し、表現ベースを拡大する。
画像とSDFに関する実験により,AIReはモデルのサイズを小さくし,保存,あるいは改良し,再現性を向上させることを示した。
コードと事前訓練されたモデルは、パブリック使用のためにリリースされる。
関連論文リスト
- Improving Accuracy and Efficiency of Implicit Neural Representations: Making SIREN a WINNER [0.0]
我々は正弦波表現ネットワーク(SIREN)の基本的制限を特定し、対処する。
極端な場合、ネットワークの周波数サポートがターゲットスペクトルと不一致した場合、「スペクトルボトルネック」が観測される。
ニューラル表現のためのノイズ付きウェイト初期化を提案する。
論文 参考訳(メタデータ) (2025-09-16T11:41:13Z) - SBS: Enhancing Parameter-Efficiency of Neural Representations for Neural Networks via Spectral Bias Suppression [6.410718573605]
ニューラルネットワークのニューラルネットワーク表現を通じて、畳み込みニューラルネットワーク重みを表現するために、暗黙の神経表現が拡張されている。
ニューラルネットワークの神経表現に使用される標準多層パーセプトロンは、顕著なスペクトルバイアスを示す。
本稿では、スペクトルバイアスを抑制するニューラルネットワークのための、パラメータ効率の良いニューラル表現の強化であるSBSを提案する。
論文 参考訳(メタデータ) (2025-09-09T03:48:57Z) - SING: Semantic Image Communications using Null-Space and INN-Guided Diffusion Models [52.40011613324083]
近年, 無線画像伝送において, 共用音源チャネル符号化システム (DeepJSCC) が顕著な性能を発揮している。
既存の手法では、送信された画像とレシーバーの再構成されたバージョンとの間の歪みを最小限に抑えることに重点を置いており、しばしば知覚的品質を見落としている。
逆問題として,破損した再構成画像から高品質な画像の復元を定式化する新しいフレームワークであるSINGを提案する。
論文 参考訳(メタデータ) (2025-03-16T12:32:11Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Tuning the Frequencies: Robust Training for Sinusoidal Neural Networks [1.5124439914522694]
正弦波ネットワークの容量特性を説明する理論的枠組みを導入する。
入力周波数の整数結合として表される多数の新しい周波数を,その層組成によってどのように生成するかを示す。
提案手法はTUNERと呼ばれ, 正弦波INRトレーニングの安定性と収束性を大幅に改善し, より詳細な再建を行った。
論文 参考訳(メタデータ) (2024-07-30T18:24:46Z) - Spatial Annealing for Efficient Few-shot Neural Rendering [73.49548565633123]
我々はtextbfSpatial textbf Annealing regularized textbfNeRF (textbfSANeRF) という,正確で効率的な数発のニューラルレンダリング手法を導入する。
単に1行のコードを追加することで、SANeRFは、現在の数ショットのニューラルレンダリング方法と比較して、より優れたレンダリング品質とはるかに高速な再構築速度を提供する。
論文 参考訳(メタデータ) (2024-06-12T02:48:52Z) - INCODE: Implicit Neural Conditioning with Prior Knowledge Embeddings [4.639495398851869]
Inlicit Neural Representation (INR)は、複雑なデータの連続的かつ滑らかな表現を提供するためにニューラルネットワークを活用することで、信号表現に革命をもたらした。
InCODEは、深い事前知識を用いて、INRにおける正弦波ベースの活性化関数の制御を強化する新しいアプローチである。
提案手法は表現力に優れるだけでなく,音声,画像,3次元形状復元などの複雑な課題に対処する能力も拡張している。
論文 参考訳(メタデータ) (2023-10-28T23:16:49Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Deep Networks for Direction-of-Arrival Estimation in Low SNR [89.45026632977456]
我々は,真の配列多様体行列の変異チャネルデータから学習した畳み込みニューラルネットワーク(CNN)を導入する。
我々は低SNR体制でCNNを訓練し、すべてのSNRでDoAを予測する。
私たちの堅牢なソリューションは、ワイヤレスアレイセンサーから音響マイクロフォンやソナーまで、いくつかの分野に適用できます。
論文 参考訳(メタデータ) (2020-11-17T12:52:18Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。