論文の概要: Simplex-FEM Networks (SiFEN): Learning A Triangulated Function Approximator
- arxiv url: http://arxiv.org/abs/2511.04804v1
- Date: Thu, 06 Nov 2025 20:49:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.586342
- Title: Simplex-FEM Networks (SiFEN): Learning A Triangulated Function Approximator
- Title(参考訳): Simplex-FEM Networks (SiFEN): 三角関数近似器の学習
- Authors: Chaymae Yahyati, Ismail Lamaakal, Khalid El Makkaoui, Ibrahim Ouahbi, Yassine Maleh,
- Abstract要約: SiFEN は、f: Rd -> Rk を学習された単純なメッシュ上の大域的な Cr 有限要素場として表現する学習的多項式予測器である。
各クエリは、正確に1つの単純度と、ほとんどのd+1基底関数をバリ座標を介して活性化する。
- 参考スコア(独自算出の注目度): 1.565870461096057
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Simplex-FEM Networks (SiFEN), a learned piecewise-polynomial predictor that represents f: R^d -> R^k as a globally C^r finite-element field on a learned simplicial mesh in an optionally warped input space. Each query activates exactly one simplex and at most d+1 basis functions via barycentric coordinates, yielding explicit locality, controllable smoothness, and cache-friendly sparsity. SiFEN pairs degree-m Bernstein-Bezier polynomials with a light invertible warp and trains end-to-end with shape regularization, semi-discrete OT coverage, and differentiable edge flips. Under standard shape-regularity and bi-Lipschitz warp assumptions, SiFEN achieves the classic FEM approximation rate M^(-m/d) with M mesh vertices. Empirically, on synthetic approximation tasks, tabular regression/classification, and as a drop-in head on compact CNNs, SiFEN matches or surpasses MLPs and KANs at matched parameter budgets, improves calibration (lower ECE/Brier), and reduces inference latency due to geometric locality. These properties make SiFEN a compact, interpretable, and theoretically grounded alternative to dense MLPs and edge-spline networks.
- Abstract(参考訳): R^d -> R^k を,学習された単純なメッシュ上の大域的 C^r 有限要素場として,任意に湾曲された入力空間で表現する,学習片回りの多項式予測器である Simplex-FEM Networks (SiFEN) を導入する。
各クエリは、バリ中心の座標によって、正確に1つの単純な関数と、ほとんどのd+1基底関数を活性化し、明示的な局所性、制御可能な滑らかさ、キャッシュフレンドリーなスパーシリティをもたらす。
SiFENは、光可逆ワープを持つ次数-m Bernstein-Bezier多項式をペアとし、形状正則化、半離散OTカバレッジ、微分可能なエッジフリップをエンドツーエンドに訓練する。
標準形状規則性とバイリプシッツワープ仮定の下で、SiFENはMメッシュ頂点を用いた古典的FEM近似率M^(-m/d)を達成する。
経験的には、合成近似タスク、表の回帰/分類、コンパクトCNN上のドロップインヘッドとして、SiFENは、一致するパラメータ予算でMLPとkanをマッチまたは超え、キャリブレーション(より低いECE/Brier)を改善し、幾何学的局所性による推論レイテンシを低減する。
これらの性質により、SiFEN は高密度 MLP やエッジスプラインネットワークに代わるコンパクトで解釈可能で理論上の基盤となっている。
関連論文リスト
- Rate optimal learning of equilibria from data [63.14746189846806]
マルチエージェント・イミテーション・ラーニング(MAIL)における理論的ギャップは,非対話的MAILの限界を特徴づけ,ほぼ最適なサンプル複雑性を持つ最初の対話的アルゴリズムを提示することによって解決する。
インタラクティブな設定では、報酬のない強化学習と対話型MAILを組み合わせたフレームワークを導入し、それをMAIL-WARMというアルゴリズムでインスタンス化する。
我々は,我々の理論を裏付ける数値的な結果を提供し,グリッドワールドのような環境において,行動クローンが学習に失敗する状況を示す。
論文 参考訳(メタデータ) (2025-10-10T12:28:35Z) - Interpolative separable density fitting on adaptive real space grids [1.2138840417631505]
高度に局所化された単一粒子基底関数に対して適応的な実空間格子を組み込む。
高度に局所化された基底集合を持つERRテンソルのISDF圧縮効率は、一様格子と互換性のある滑らかな基底集合の圧縮効率に匹敵する。
我々の研究は、任意の滑らかな基底関数を持つスケーラブルな多体電子構造シミュレーションの経路を確立する。
論文 参考訳(メタデータ) (2025-10-09T01:42:49Z) - Barycentric Neural Networks and Length-Weighted Persistent Entropy Loss: A Green Geometric and Topological Framework for Function Approximation [0.0]
BNN(Barycentric Neural Network)は,構造とパラメータを固定されたベースポイントと関連するバリ中心座標によってエンコードする,コンパクトな浅層アーキテクチャである。
我々は,BNNが連続的部分的線形関数(CPLF)の正確な表現を可能にし,セグメント間の厳密な連続性を保証することを示す。
提案手法は,内部パラメータではなく,BNNを定義するベースポイントを最適化するために,LWPEに基づく損失関数とBNNを統合している。
論文 参考訳(メタデータ) (2025-09-08T13:47:21Z) - Guiding Neural Collapse: Optimising Towards the Nearest Simplex Equiangular Tight Frame [34.309687104447114]
ニューラル・コラプス(英: Neural Collapse, NC)は、ニューラルネットワークにおいて最近観測された現象であり、トレーニング損失がゼロになるまで、最終分類器層の解空間を特徴付ける。
我々は,任意のトレーニングイテレーションにおいて,最寄りの単純なETF幾何の概念を導入している。
各繰り返しにおいて、分類器の重みは、この内部最適化を解くことにより、最も近い単純 ETF に暗黙的に設定される。
分類タスクのための合成および実世界のアーキテクチャに関する実験は,本手法が収束を加速し,訓練安定性を高めることを実証している。
論文 参考訳(メタデータ) (2024-11-02T13:54:31Z) - Incorporating Arbitrary Matrix Group Equivariance into KANs [69.30866522377694]
Kolmogorov-Arnold Networks (KAN) は科学分野で大きな成功を収めている。
本研究では,Equivariant Kolmogorov-Arnold Networks (EKAN)を提案する。
論文 参考訳(メタデータ) (2024-10-01T06:34:58Z) - CWF: Consolidating Weak Features in High-quality Mesh Simplification [50.634070540791555]
これらの要件をすべて同時に検討するスムーズな機能を提案する。
この官能基は、通常の異方性項と、セトロイド型ボロノイテッセルレーション(CVT)エネルギー項を含む。
論文 参考訳(メタデータ) (2024-04-24T05:37:17Z) - ParsNets: A Parsimonious Orthogonal and Low-Rank Linear Networks for
Zero-Shot Learning [22.823915322924304]
本稿では,ParsNetsと呼ばれるゼロショット学習(ZSL)において,既存の深層モデルに対して同等あるいはさらに優れた性能を実現するために,並列かつ効率的な設計手法を提案する。
局所線型性の一般化を容易にするため,クラス内サンプルに低ランク制約を課し,クラス間サンプルに高ランク制約を課すことにより,学習特徴量に対する最大マージン幾何学を構築した。
ZSLにおけるモデルの適応性と相反するオーバー/アンダーフィッティングを強化するために、サンプルワイドインジケータのセットを使用して、これらのベース線形ネットワークからスパースサブセットを選択して複合を形成する。
論文 参考訳(メタデータ) (2023-12-15T11:32:11Z) - Simplex Random Features [53.97976744884616]
ソフトマックスおよびガウスカーネルの非バイアス近似のための新しいランダム特徴(RF)機構であるSimplex Random Features (SimRFs)を提案する。
我々は,これらのカーネルの非バイアス推定値に対して,SimRFが最小平均二乗誤差(MSE)を提供することを示す。
ポイントワイドカーネル推定,非パラメトリック分類,スケーラブルトランスフォーマーなどの設定において,SimRFによる一貫したゲインを示す。
論文 参考訳(メタデータ) (2023-01-31T18:53:39Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。