論文の概要: efunc: An Efficient Function Representation without Neural Networks
- arxiv url: http://arxiv.org/abs/2505.21319v1
- Date: Tue, 27 May 2025 15:16:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.747433
- Title: efunc: An Efficient Function Representation without Neural Networks
- Title(参考訳): efunc: ニューラルネットワークのない効率的な関数表現
- Authors: Biao Zhang, Peter Wonka,
- Abstract要約: 本稿では,連続関数モデリングのための新しいフレームワークを提案する。
次に、ニューラルネットワークと複素構造の両方をバイパスするパラメータ効率関数に基づいて、コンパクトな関数表現を導入する。
- 参考スコア(独自算出の注目度): 46.76882780184126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Function fitting/approximation plays a fundamental role in computer graphics and other engineering applications. While recent advances have explored neural networks to address this task, these methods often rely on architectures with many parameters, limiting their practical applicability. In contrast, we pursue high-quality function approximation using parameter-efficient representations that eliminate the dependency on neural networks entirely. We first propose a novel framework for continuous function modeling. Most existing works can be formulated using this framework. We then introduce a compact function representation, which is based on polynomials interpolated using radial basis functions, bypassing both neural networks and complex/hierarchical data structures. We also develop memory-efficient CUDA-optimized algorithms that reduce computational time and memory consumption to less than 10% compared to conventional automatic differentiation frameworks. Finally, we validate our representation and optimization pipeline through extensive experiments on 3D signed distance functions (SDFs). The proposed representation achieves comparable or superior performance to state-of-the-art techniques (e.g., octree/hash-grid techniques) with significantly fewer parameters.
- Abstract(参考訳): 関数フィッティング/近似は、コンピュータグラフィックスやその他の工学的応用において基本的な役割を担っている。
最近の進歩では、この課題に対処するためにニューラルネットワークを探索しているが、これらの手法は多くの場合、多くのパラメータを持つアーキテクチャに依存し、実用性を制限する。
対照的に、ニューラルネットワークへの依存を完全に排除するパラメータ係数表現を用いて、高品質な関数近似を追求する。
まず,連続関数モデリングのための新しいフレームワークを提案する。
既存の作業の多くは、このフレームワークを使って定式化することができる。
次に、ラジアル基底関数を用いて補間された多項式に基づくコンパクト関数表現を導入し、ニューラルネットワークと複素階層データ構造の両方をバイパスする。
また,従来の自動微分フレームワークと比較して,計算時間とメモリ消費を10%未満に削減するメモリ効率のCUDA最適化アルゴリズムを開発した。
最後に,3次元符号付き距離関数(SDF)の広範な実験を通して,表現と最適化のパイプラインを検証する。
提案した表現は、パラメータが大幅に少ない最先端技術(例えば、octree/hash-grid技術)に匹敵する、あるいは優れた性能を実現する。
関連論文リスト
- Efficient Parametric Approximations of Neural Network Function Space
Distance [6.117371161379209]
モデルパラメータとトレーニングデータの重要な特性をコンパクトに要約して、データセット全体を保存または/または反復することなく後で使用できるようにすることが、しばしば有用である。
我々は,FSD(Function Space Distance)をトレーニングセット上で推定することを検討する。
本稿では、線形化活性化TRick (LAFTR) を提案し、ReLUニューラルネットワークに対するFSDの効率的な近似を導出する。
論文 参考訳(メタデータ) (2023-02-07T15:09:23Z) - Versatile Neural Processes for Learning Implicit Neural Representations [57.090658265140384]
本稿では,近似関数の能力を大幅に向上させるVersatile Neural Processs (VNP)を提案する。
具体的には、より少ない情報的コンテキストトークンを生成するボトルネックエンコーダを導入し、高い計算コストを軽減した。
提案したVNPが1D, 2D, 3D信号を含む様々なタスクに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-01-21T04:08:46Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Neural network relief: a pruning algorithm based on neural activity [47.57448823030151]
重要でない接続を非活性化する簡易な重要スコア計量を提案する。
MNIST上でのLeNetアーキテクチャの性能に匹敵する性能を実現する。
このアルゴリズムは、現在のハードウェアとソフトウェアの実装を考えるとき、FLOPを最小化するように設計されていない。
論文 参考訳(メタデータ) (2021-09-22T15:33:49Z) - CDiNN -Convex Difference Neural Networks [0.8122270502556374]
reluアクティベーション関数を持つニューラルネットワークは、普遍関数近似が非スムース関数として関数マッピングを学ぶことが示されている。
ICNNと呼ばれる新しいニューラルネットワークアーキテクチャは、凸入力として出力を学習する。
論文 参考訳(メタデータ) (2021-03-31T17:31:16Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z) - Activation functions are not needed: the ratio net [3.9636371287541086]
本稿では,新しい関数近似器の設計に焦点をあてる。
新しいアクティベーション関数やカーネル関数を設計する代わりに、新しい提案されたネットワークは分数形式を使用する。
その結果、ほとんどの場合、比率ネットはより速く収束し、分類とRBFの両方を上回っていることがわかった。
論文 参考訳(メタデータ) (2020-05-14T01:07:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。