論文の概要: Hardware-Friendly Input Expansion for Accelerating Function Approximation
- arxiv url: http://arxiv.org/abs/2602.17952v1
- Date: Fri, 20 Feb 2026 03:07:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.212428
- Title: Hardware-Friendly Input Expansion for Accelerating Function Approximation
- Title(参考訳): 関数近似の高速化のためのハードウェアフレンドリーな入力拡張
- Authors: Hu Lou, Yin-Jun Gao, Dong-Xiao Zhang, Tai-Jiao Du, Jun-Jie Zhang, Jia-Rui Zhang,
- Abstract要約: 一次元関数近似は、科学計算と工学の応用における基本的な問題である。
本稿では,インセンティブ空間拡張による関数近似のためのハードウェアフレンドリなアプローチを提案する。
本手法は,スムーズ,不連続,高周波,非微分関数を含む10個の代表的な一次元関数について評価する。
- 参考スコア(独自算出の注目度): 7.368108776065735
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: One-dimensional function approximation is a fundamental problem in scientific computing and engineering applications. While neural networks possess powerful universal approximation capabilities, their optimization process is often hindered by flat loss landscapes induced by parameter-space symmetries, leading to slow convergence and poor generalization, particularly for high-frequency components. Inspired by the principle of \emph{symmetry breaking} in physics, this paper proposes a hardware-friendly approach for function approximation through \emph{input-space expansion}. The core idea involves augmenting the original one-dimensional input (e.g., $x$) with constant values (e.g., $π$) to form a higher-dimensional vector (e.g., $[π, π, x, π, π]$), effectively breaking parameter symmetries without increasing the network's parameter count. We evaluate the method on ten representative one-dimensional functions, including smooth, discontinuous, high-frequency, and non-differentiable functions. Experimental results demonstrate that input-space expansion significantly accelerates training convergence (reducing LBFGS iterations by 12\% on average) and enhances approximation accuracy (reducing final MSE by 66.3\% for the optimal 5D expansion). Ablation studies further reveal the effects of different expansion dimensions and constant selections, with $π$ consistently outperforming other constants. Our work proposes a low-cost, efficient, and hardware-friendly technique for algorithm design.
- Abstract(参考訳): 一次元関数近似は、科学計算と工学の応用における基本的な問題である。
ニューラルネットワークは強力な普遍近似能力を持っているが、その最適化プロセスはパラメータ空間対称性によって誘導される平らなロスランドスケープによって妨げられ、特に高周波成分の収束と一般化が遅くなる。
物理学における 'emph{symmetric breaking} の原理にインスパイアされた本研究では, \emph{input-space expansion} による関数近似のためのハードウェアフレンドリーなアプローチを提案する。
中心となる考え方は、元の1次元入力(eg , $x$)を定数値(eg , $π$)で拡張し、高次元ベクトル(eg , $[π, π, x, π, π]$)を形成することである。
本手法は,スムーズ,不連続,高周波,非微分関数を含む10個の代表的な一次元関数について評価する。
実験により,入力空間の拡大はトレーニング収束を著しく加速し(LBFGSのイテレーションを平均12倍),近似精度を高める(最適5D展開では最終MSEを66.3倍)。
アブレーション研究は、異なる膨張次元と定数選択の影響をさらに明らかにし、$π$は他の定数よりも一貫して優れている。
本研究は,アルゴリズム設計のための低コスト,効率的,ハードウェアフレンドリーな手法を提案する。
関連論文リスト
- Gradient Descent as a Perceptron Algorithm: Understanding Dynamics and Implicit Acceleration [67.12978375116599]
勾配降下(GD)のステップが一般化されたパーセプトロンアルゴリズムのステップに還元されることを示す。
これは、ニューラルネットワークで観測される最適化力学と暗黙の加速現象を説明するのに役立つ。
論文 参考訳(メタデータ) (2025-12-12T14:16:35Z) - Estimation of Toeplitz Covariance Matrices using Overparameterized Gradient Descent [1.7188280334580195]
単純降下レンズ(GD)によるToeplitz共分散推定の再検討
K = P$ のとき、GD は準最適解に収束する。
本稿では,振幅と周波数の学習率の異なる高速なGD変種を提案する。
論文 参考訳(メタデータ) (2025-11-03T14:07:53Z) - Improved Stochastic Optimization of LogSumExp [2.8547553943343797]
勾配法を用いて効率よく最適化できるLogSumExpの新たな近似法を提案する。
近似の精度は調整可能なパラメータで制御され、任意に小さくすることができる。
DROと連続最適輸送の実験は、我々のアプローチの利点を実証している。
論文 参考訳(メタデータ) (2025-09-29T15:03:55Z) - Preconditioned Additive Gaussian Processes with Fourier Acceleration [2.292881746604941]
本稿では,カーネル行列とその導関数の乗算において,ほぼ線形な複雑性を実現するための行列フリー手法を提案する。
高次元問題に対処するために,加法的カーネルアプローチを提案する。
各サブカーネルは低次の特徴相互作用をキャプチャし、NFFT法の効率的な適用を可能にする。
論文 参考訳(メタデータ) (2025-04-01T07:14:06Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Geometry-induced Implicit Regularization in Deep ReLU Neural Networks [0.0]
暗黙の正則化現象は、まだよく理解されていないが、最適化中に起こる。
パラメータの異なる出力集合の幾何について検討する。
バッチ関数次元は隠蔽層内の活性化パターンによってほぼ確実に決定されることを示す。
論文 参考訳(メタデータ) (2024-02-13T07:49:57Z) - On Convergence of Incremental Gradient for Non-Convex Smooth Functions [63.51187646914962]
機械学習とネットワーク最適化では、ミスの数と優れたキャッシュを最小化するため、シャッフルSGDのようなアルゴリズムが人気である。
本稿では任意のデータ順序付けによる収束特性SGDアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2023-05-30T17:47:27Z) - Reducing the Variance of Gaussian Process Hyperparameter Optimization
with Preconditioning [54.01682318834995]
プレコンディショニングは、行列ベクトル乗算を含む反復的な方法にとって非常に効果的なステップである。
プレコンディショニングには、これまで検討されていなかった付加的なメリットがあることを実証する。
基本的に無視可能なコストで、同時に分散を低減することができる。
論文 参考訳(メタデータ) (2021-07-01T06:43:11Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。