論文の概要: Spectral Prefiltering of Neural Fields
- arxiv url: http://arxiv.org/abs/2510.08394v1
- Date: Thu, 09 Oct 2025 16:15:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.18978
- Title: Spectral Prefiltering of Neural Fields
- Title(参考訳): ニューラルフィールドのスペクトル前処理
- Authors: Mustafa B. Yaldiz, Ishit Mehta, Nithin Raghavan, Andreas Meuleman, Tzu-Mao Li, Ravi Ramamoorthi,
- Abstract要約: 本稿では,単一前方通過で事前フィルタリング可能なニューラルネットワークを最適化する,シンプルかつ強力な手法を提案する。
我々は、フィルタの周波数応答でフーリエ特徴埋め込みを解析的にスケーリングすることにより、入力領域における畳み込みフィルタリングを行う。
フィルタ信号の単サンプルモンテカルロ推定を用いてニューラルネットワークを訓練する。
- 参考スコア(独自算出の注目度): 29.748460793696648
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural fields excel at representing continuous visual signals but typically operate at a single, fixed resolution. We present a simple yet powerful method to optimize neural fields that can be prefiltered in a single forward pass. Key innovations and features include: (1) We perform convolutional filtering in the input domain by analytically scaling Fourier feature embeddings with the filter's frequency response. (2) This closed-form modulation generalizes beyond Gaussian filtering and supports other parametric filters (Box and Lanczos) that are unseen at training time. (3) We train the neural field using single-sample Monte Carlo estimates of the filtered signal. Our method is fast during both training and inference, and imposes no additional constraints on the network architecture. We show quantitative and qualitative improvements over existing methods for neural-field filtering.
- Abstract(参考訳): ニューラルネットワークは連続した視覚信号を表現するのに優れるが、通常は1つの固定された解像度で動作する。
本稿では,単一前方通過で事前フィルタリング可能なニューラルネットワークを最適化する,シンプルかつ強力な手法を提案する。
1) フィルタの周波数応答でフーリエ特徴埋め込みを解析的にスケーリングすることにより、入力領域における畳み込みフィルタリングを行う。
2) この閉形式変調はガウスフィルタを超えて一般化し、訓練時に目に見えない他のパラメトリックフィルタ(Box, Lanczos)をサポートする。
(3)フィルタ信号の単サンプルモンテカルロ推定を用いてニューラルネットワークを訓練する。
我々の手法はトレーニングと推論の両方において高速であり、ネットワークアーキテクチャに付加的な制約を課さない。
既存のニューラルフィールドフィルタリング法よりも定量的で質的な改善が見られた。
関連論文リスト
- BANF: Band-limited Neural Fields for Levels of Detail Reconstruction [28.95113960996025]
簡単な修正により、低域通過フィルタのニューラルネットワークが得られることを示すとともに、これをどのように利用して信号全体の周波数分解を得ることができるかを示す。
本研究では,提案手法の妥当性について検討し,粗い表現を効果的に計算する方法を示す。
論文 参考訳(メタデータ) (2024-04-19T17:39:50Z) - As large as it gets: Learning infinitely large Filters via Neural Implicit Functions in the Fourier Domain [22.512062422338914]
画像分類のためのニューラルネットワークの最近の研究は、空間的文脈を増大させる傾向が強い。
本稿では,畳み込みニューラルネットワークの有効フィルタサイズを研究するためのモジュールを提案する。
提案するネットワークは非常に大きな畳み込みカーネルを学習できるが、学習されたフィルタは十分に局所化されており、実際は比較的小さい。
論文 参考訳(メタデータ) (2023-07-19T14:21:11Z) - Computational Doob's h-transforms for Online Filtering of Discretely
Observed Diffusions [65.74069050283998]
本研究では,Doobの$h$-transformsを近似する計算フレームワークを提案する。
提案手法は、最先端粒子フィルタよりも桁違いに効率的である。
論文 参考訳(メタデータ) (2022-06-07T15:03:05Z) - Deep Learning for the Benes Filter [91.3755431537592]
本研究では,メッシュのないニューラルネットワークによるベンズモデルの解の密度の表現に基づく新しい数値計算法を提案する。
ニューラルネットワークの領域選択におけるフィルタリングモデル方程式における非線形性の役割について論じる。
論文 参考訳(メタデータ) (2022-03-09T14:08:38Z) - Learning Versatile Convolution Filters for Efficient Visual Recognition [125.34595948003745]
本稿では,効率的な畳み込みニューラルネットワーク構築のための多目的フィルタを提案する。
本稿では,ネットワークの複雑性に関する理論的解析を行い,効率的な畳み込み手法を提案する。
ベンチマークデータセットとニューラルネットワークの実験結果は、我々の汎用フィルタが元のフィルタと同等の精度を達成できることを実証している。
論文 参考訳(メタデータ) (2021-09-20T06:07:14Z) - Graph Neural Networks with Adaptive Frequency Response Filter [55.626174910206046]
適応周波数応答フィルタを用いたグラフニューラルネットワークフレームワークAdaGNNを開発した。
提案手法の有効性を,様々なベンチマークデータセット上で実証的に検証した。
論文 参考訳(メタデータ) (2021-04-26T19:31:21Z) - Filter Grafting for Deep Neural Networks: Reason, Method, and
Cultivation [86.91324735966766]
フィルタは現代の畳み込みニューラルネットワーク(CNN)のキーコンポーネントである
本稿では,この目的を達成するためにフィルタグラフト(textbfMethod)を導入する。
我々は,フィルタの情報を測定するための新しい基準と,グラフトされた情報をネットワーク間でバランスをとるための適応重み付け戦略を開発する。
論文 参考訳(メタデータ) (2020-04-26T08:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。