論文の概要: Semialgebraic Neural Networks: From roots to representations
- arxiv url: http://arxiv.org/abs/2501.01564v1
- Date: Thu, 02 Jan 2025 22:52:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-06 15:12:34.857131
- Title: Semialgebraic Neural Networks: From roots to representations
- Title(参考訳): 半代数ニューラルネットワーク:根から表現へ
- Authors: S. David Mis, Matti Lassas, Maarten V. de Hoop,
- Abstract要約: 本稿では,任意の有界半代数関数を表現可能なニューラルネットワークアーキテクチャであるSemialgebraic Networks(SANN)を紹介する。
構築により,SANNアーキテクチャがこの継続法を実行可能であることを示し,学習された半代数関数を評価する。
これらのネットワークの例を示し、従来のディープラーニング技術でトレーニングできることを示します。
- 参考スコア(独自算出の注目度): 6.259381563339797
- License:
- Abstract: Many numerical algorithms in scientific computing -- particularly in areas like numerical linear algebra, PDE simulation, and inverse problems -- produce outputs that can be represented by semialgebraic functions; that is, the graph of the computed function can be described by finitely many polynomial equalities and inequalities. In this work, we introduce Semialgebraic Neural Networks (SANNs), a neural network architecture capable of representing any bounded semialgebraic function, and computing such functions up to the accuracy of a numerical ODE solver chosen by the programmer. Conceptually, we encode the graph of the learned function as the kernel of a piecewise polynomial selected from a class of functions whose roots can be evaluated using a particular homotopy continuation method. We show by construction that the SANN architecture is able to execute this continuation method, thus evaluating the learned semialgebraic function. Furthermore, the architecture can exactly represent even discontinuous semialgebraic functions by executing a continuation method on each connected component of the target function. Lastly, we provide example applications of these networks and show they can be trained with traditional deep-learning techniques.
- Abstract(参考訳): 科学計算における多くの数値アルゴリズム(特に数値線形代数、PDEシミュレーション、逆問題など)は半代数関数で表される出力を生成する。
本研究では,任意の有界半代数関数を表現可能なニューラルネットワークアーキテクチャである半代数ニューラルネットワーク(SANN)を導入し,プログラマが選択した数値ODEソルバの精度まで計算する。
概念的には、学習関数のグラフを、特定のホモトピー継続法を用いて、根を評価可能な関数のクラスから選択された断片多項式のカーネルとして符号化する。
構築により,SANNアーキテクチャがこの継続法を実行可能であることを示し,学習された半代数関数を評価する。
さらに、対象関数の各連結成分に対して継続法を実行することにより、不連続な半代数関数を正確に表現することができる。
最後に、これらのネットワークの例を示し、従来のディープラーニング技術でトレーニングできることを示します。
関連論文リスト
- GINN-LP: A Growing Interpretable Neural Network for Discovering
Multivariate Laurent Polynomial Equations [1.1142444517901018]
本稿では,解釈可能なニューラルネットワークであるGINN-LPを提案する。
私たちの知る限りでは、これは注文に関する事前情報なしで任意の項を発見できる最初のニューラルネットワークである。
GINN-LPは,データセット上での最先端のシンボル回帰手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-18T03:44:29Z) - Solving Falkner-Skan type equations via Legendre and Chebyshev Neural
Blocks [0.0]
非線型Falkner-Skan方程式を解くための新しいディープラーニングアーキテクチャを提案する。
提案手法の効率は,Falkner-Skan方程式の様々な構成により評価される。
論文 参考訳(メタデータ) (2023-08-07T06:38:59Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - NeuralEF: Deconstructing Kernels by Deep Neural Networks [47.54733625351363]
従来のNystr"om式に基づく非パラメトリックなソリューションはスケーラビリティの問題に悩まされる。
最近の研究はパラメトリックなアプローチ、すなわち固有関数を近似するためにニューラルネットワークを訓練している。
教師なしおよび教師なしの学習問題の空間に一般化する新たな目的関数を用いて,これらの問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-04-30T05:31:07Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - PDE constraints on smooth hierarchical functions computed by neural
networks [0.0]
ディープニューラルネットワーク理論における重要な問題は、表現性である。
フィードフォワードニューラルネットワークによって実装された実無限微分可能(滑らか)階層関数について検討する。
このようなPDE制約は、一旦適切な非特異性条件を伴って、考慮中の滑らかな関数をネットワークで表現できることを保証する。
論文 参考訳(メタデータ) (2020-05-18T16:34:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。