論文の概要: Barycentric Neural Networks and Length-Weighted Persistent Entropy Loss: A Green Geometric and Topological Framework for Function Approximation
- arxiv url: http://arxiv.org/abs/2509.06694v1
- Date: Mon, 08 Sep 2025 13:47:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.17204
- Title: Barycentric Neural Networks and Length-Weighted Persistent Entropy Loss: A Green Geometric and Topological Framework for Function Approximation
- Title(参考訳): Barycentric Neural Networks and Longth-Weighted Persistent Entropy Loss: A Green Geometric and Topological Framework for Function Approximation (特集:バイオサイバネティックス)
- Authors: Victor Toscano-Duran, Rocio Gonzalez-Diaz, Miguel A. Gutiérrez-Naranjo,
- Abstract要約: 新しいタイプのもの。
EmphBarycentric Neural Network(BNN$)と呼ばれる小幅の浅層ニューラルネットワークが提案されている。
我々のフレームワークは、BNN$とLWPE$に基づく損失関数を組み合わせたもので、非線形連続関数の柔軟で幾何学的に解釈可能な近似を提供することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While it is well-established that artificial neural networks are \emph{universal approximators} for continuous functions on compact domains, many modern approaches rely on deep or overparameterized architectures that incur high computational costs. In this paper, a new type of \emph{small shallow} neural network, called the \emph{Barycentric Neural Network} ($\BNN$), is proposed, which leverages a fixed set of \emph{base points} and their \emph{barycentric coordinates} to define both its structure and its parameters. We demonstrate that our $\BNN$ enables the exact representation of \emph{continuous piecewise linear functions} ($\CPLF$s), ensuring strict continuity across segments. Since any continuous function over a compact domain can be approximated arbitrarily well by $\CPLF$s, the $\BNN$ naturally emerges as a flexible and interpretable tool for \emph{function approximation}. Beyond the use of this representation, the main contribution of the paper is the introduction of a new variant of \emph{persistent entropy}, a topological feature that is stable and scale invariant, called the \emph{length-weighted persistent entropy} ($\LWPE$), which is weighted by the lifetime of topological features. Our framework, which combines the $\BNN$ with a loss function based on our $\LWPE$, aims to provide flexible and geometrically interpretable approximations of nonlinear continuous functions in resource-constrained settings, such as those with limited base points for $\BNN$ design and few training epochs. Instead of optimizing internal weights, our approach directly \emph{optimizes the base points that define the $\BNN$}. Experimental results show that our approach achieves \emph{superior and faster approximation performance} compared to classical loss functions such as MSE, RMSE, MAE, and log-cosh.
- Abstract(参考訳): 人工ニューラルネットワークがコンパクトドメイン上の連続関数に対する 'emph{universal approximator} であることはよく確立されているが、現代の多くのアプローチは、高い計算コストを発生させる深いアーキテクチャや過度なアーキテクチャに依存している。
本稿では,その構造とパラメータを定式化するために,\emph{base points} とそれらの \emph{barycentric coordinates の固定セットを利用する新しいタイプの 'emph{Barycentric Neural Network} ("\BNN$") を提案する。
我々の$\BNN$は \emph{continuous piecewise linear function}(\CPLF$s)の正確な表現を可能にし、セグメント間の厳密な連続性を保証する。
コンパクト領域上の任意の連続函数は$\CPLF$sで任意に近似できるので、$\BNN$は自然に \emph{function approximation} の柔軟な解釈可能なツールとして現れる。
この表現の使用以外にも、この論文の主な貢献は、安定でスケール不変な位相的特徴である「emph{persistent entropy}」の新しい変種の導入である。
我々のフレームワークは、$\BNN$と$\LWPE$に基づく損失関数を組み合わせることで、リソース制約のある環境での非線形連続関数の柔軟で幾何学的に解釈可能な近似を提供することを目的としています。
内部重みを最適化する代わりに、我々のアプローチは$\BNN$}を定義する基底点を直接最適化する。
MSE, RMSE, MAE, log-coshなどの古典的損失関数と比較して, 本手法はより高速かつ高速な近似性能を実現する。
関連論文リスト
- Demystifying Linear MDPs and Novel Dynamics Aggregation Framework [8.087699764574788]
線型 MDP において、$d$ は遷移確率を適切に表すために$S/U$ で制限される。
動的アグリゲーション(dynamics aggregate, 動的アグリゲーション)と呼ばれる動的に基づく新しい構造アグリゲーションフレームワークを提案する。
提案アルゴリズムは統計的効率を示し,$ tildeO (d_psi3/2 H3/2sqrt T)$, $d_psi$は集約されたサブMDPの特徴次元を表す。
論文 参考訳(メタデータ) (2024-10-31T16:21:41Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Fast Rates in Stochastic Online Convex Optimization by Exploiting the Curvature of Feasible Sets [35.8717656676532]
オンライン線形最適化では、損失関数の平均勾配が一定の閾値を超えると、実現可能な集合の曲率を利用することができることが知られている。
本研究では、損失関数の曲率に適応したアルゴリズムが、実現可能な集合の曲率を活用できることを明らかにする。
論文 参考訳(メタデータ) (2024-02-20T09:59:33Z) - Universal Online Learning with Gradient Variations: A Multi-layer Online Ensemble Approach [57.92727189589498]
本稿では,2段階の適応性を持つオンライン凸最適化手法を提案する。
我々は$mathcalO(log V_T)$, $mathcalO(d log V_T)$, $hatmathcalO(sqrtV_T)$ regret bounds for strong convex, exp-concave and convex loss function。
論文 参考訳(メタデータ) (2023-07-17T09:55:35Z) - Generalization and Stability of Interpolating Neural Networks with
Minimal Width [37.908159361149835]
補間系における勾配によって訓練された浅層ニューラルネットワークの一般化と最適化について検討する。
トレーニング損失数は$m=Omega(log4 (n))$ニューロンとニューロンを最小化する。
m=Omega(log4 (n))$のニューロンと$Tapprox n$で、テスト損失のトレーニングを$tildeO (1/)$に制限します。
論文 参考訳(メタデータ) (2023-02-18T05:06:15Z) - Expressivity of Neural Networks via Chaotic Itineraries beyond
Sharkovsky's Theorem [8.492084752803528]
ターゲット関数が$f$であれば、ニューラルネットワークは$f$を近似するためにどのくらいの大きさでなければならないか?
近年の研究では、力学系のレンズから得られる「ニューラルネットワークのテキスト表現性」に関する基本的な問題について検討している。
論文 参考訳(メタデータ) (2021-10-19T22:28:27Z) - Complexity of Finding Stationary Points of Nonsmooth Nonconvex Functions [84.49087114959872]
非滑らかで非滑らかな関数の定常点を見つけるための最初の非漸近解析を提供する。
特に、アダマール半微分可能函数(おそらく非滑らか関数の最大のクラス)について研究する。
論文 参考訳(メタデータ) (2020-02-10T23:23:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。