論文の概要: Barycentric Neural Networks and Length-Weighted Persistent Entropy Loss: A Green Geometric and Topological Framework for Function Approximation
- arxiv url: http://arxiv.org/abs/2509.06694v3
- Date: Thu, 09 Oct 2025 09:47:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.595412
- Title: Barycentric Neural Networks and Length-Weighted Persistent Entropy Loss: A Green Geometric and Topological Framework for Function Approximation
- Title(参考訳): Barycentric Neural Networks and Longth-Weighted Persistent Entropy Loss: A Green Geometric and Topological Framework for Function Approximation (特集:バイオサイバネティックス)
- Authors: Victor Toscano-Duran, Rocio Gonzalez-Diaz, Miguel A. Gutiérrez-Naranjo,
- Abstract要約: BNN(Barycentric Neural Network)は,構造とパラメータを固定されたベースポイントと関連するバリ中心座標によってエンコードする,コンパクトな浅層アーキテクチャである。
我々は,BNNが連続的部分的線形関数(CPLF)の正確な表現を可能にし,セグメント間の厳密な連続性を保証することを示す。
提案手法は,内部パラメータではなく,BNNを定義するベースポイントを最適化するために,LWPEに基づく損失関数とBNNを統合している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While artificial neural networks are known as universal approximators for continuous functions, many modern approaches rely on overparameterized architectures with high computational cost. In this work, we introduce the Barycentric Neural Network (BNN): a compact shallow architecture that encodes both structure and parameters through a fixed set of base points and their associated barycentric coordinates. We show that the BNN enables the exact representation of continuous piecewise linear functions (CPLFs), ensuring strict continuity across segments. Given that any continuous function on a compact domain can be uniformly approximated by CPLFs, the BNN emerges as a flexible and interpretable tool for function approximation. To enhance geometric fidelity in low-resource scenarios, such as those with few base points to create BNNs or limited training epochs, we propose length-weighted persistent entropy (LWPE): a stable variant of persistent entropy. Our approach integrates the BNN with a loss function based on LWPE to optimize the base points that define the BNN, rather than its internal parameters. Experimental results show that our approach achieves superior and faster approximation performance compared to standard losses (MSE, RMSE, MAE and LogCosh), offering a computationally sustainable alternative for function approximation.
- Abstract(参考訳): 人工ニューラルネットワークは連続関数の普遍近似器として知られているが、現代の多くのアプローチは計算コストの高い過パラメータアーキテクチャに依存している。
本研究では,Barycentric Neural Network (BNN) を導入し,構造とパラメータの両方を固定された基底点と関連するバリ中心座標によって符号化する,コンパクトな浅層アーキテクチャを提案する。
我々は,BNNが連続的部分的線形関数(CPLF)の正確な表現を可能にし,セグメント間の厳密な連続性を保証することを示す。
コンパクト領域上の任意の連続関数がCPLFによって一様に近似できることを考えると、BNNは関数近似の柔軟な解釈可能なツールとして現れる。
BNNの作成や訓練エポックの制限など,低リソースシナリオにおける幾何学的忠実度を高めるため,永続エントロピーの安定な変種である長重持続エントロピー(LWPE)を提案する。
提案手法は,内部パラメータではなく,BNNを定義するベースポイントを最適化するために,LWPEに基づく損失関数とBNNを統合している。
実験結果から,本手法は標準的な損失 (MSE, RMSE, MAE, LogCosh) と比較して, より高速かつ高速な近似性能を実現し, 関数近似の計算可能な代替手段を提供することがわかった。
関連論文リスト
- Demystifying Linear MDPs and Novel Dynamics Aggregation Framework [8.087699764574788]
線型 MDP において、$d$ は遷移確率を適切に表すために$S/U$ で制限される。
動的アグリゲーション(dynamics aggregate, 動的アグリゲーション)と呼ばれる動的に基づく新しい構造アグリゲーションフレームワークを提案する。
提案アルゴリズムは統計的効率を示し,$ tildeO (d_psi3/2 H3/2sqrt T)$, $d_psi$は集約されたサブMDPの特徴次元を表す。
論文 参考訳(メタデータ) (2024-10-31T16:21:41Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Fast Rates in Stochastic Online Convex Optimization by Exploiting the Curvature of Feasible Sets [35.8717656676532]
オンライン線形最適化では、損失関数の平均勾配が一定の閾値を超えると、実現可能な集合の曲率を利用することができることが知られている。
本研究では、損失関数の曲率に適応したアルゴリズムが、実現可能な集合の曲率を活用できることを明らかにする。
論文 参考訳(メタデータ) (2024-02-20T09:59:33Z) - Universal Online Learning with Gradient Variations: A Multi-layer Online Ensemble Approach [57.92727189589498]
本稿では,2段階の適応性を持つオンライン凸最適化手法を提案する。
我々は$mathcalO(log V_T)$, $mathcalO(d log V_T)$, $hatmathcalO(sqrtV_T)$ regret bounds for strong convex, exp-concave and convex loss function。
論文 参考訳(メタデータ) (2023-07-17T09:55:35Z) - Generalization and Stability of Interpolating Neural Networks with
Minimal Width [37.908159361149835]
補間系における勾配によって訓練された浅層ニューラルネットワークの一般化と最適化について検討する。
トレーニング損失数は$m=Omega(log4 (n))$ニューロンとニューロンを最小化する。
m=Omega(log4 (n))$のニューロンと$Tapprox n$で、テスト損失のトレーニングを$tildeO (1/)$に制限します。
論文 参考訳(メタデータ) (2023-02-18T05:06:15Z) - Expressivity of Neural Networks via Chaotic Itineraries beyond
Sharkovsky's Theorem [8.492084752803528]
ターゲット関数が$f$であれば、ニューラルネットワークは$f$を近似するためにどのくらいの大きさでなければならないか?
近年の研究では、力学系のレンズから得られる「ニューラルネットワークのテキスト表現性」に関する基本的な問題について検討している。
論文 参考訳(メタデータ) (2021-10-19T22:28:27Z) - Complexity of Finding Stationary Points of Nonsmooth Nonconvex Functions [84.49087114959872]
非滑らかで非滑らかな関数の定常点を見つけるための最初の非漸近解析を提供する。
特に、アダマール半微分可能函数(おそらく非滑らか関数の最大のクラス)について研究する。
論文 参考訳(メタデータ) (2020-02-10T23:23:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。