論文の概要: Alternating Minimization for Regression with Tropical Rational Functions
- arxiv url: http://arxiv.org/abs/2305.20072v1
- Date: Wed, 31 May 2023 17:46:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 14:44:05.090218
- Title: Alternating Minimization for Regression with Tropical Rational Functions
- Title(参考訳): 熱帯合理的関数による回帰の交代最小化
- Authors: Alex Dunbar, Lars Ruthotto
- Abstract要約: 固定指数を持つ熱帯有理関数の空間上の回帰の交互最小化を提案する。
私たちの研究は、機械学習コミュニティで人気のあるネットワークアーキテクチャのクラスであるReLUニューラルネットワークへのアプリケーションによって動機付けられています。
- 参考スコア(独自算出の注目度): 3.997680012976965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an alternating minimization heuristic for regression over the
space of tropical rational functions with fixed exponents. The method
alternates between fitting the numerator and denominator terms via tropical
polynomial regression, which is known to admit a closed form solution. We
demonstrate the behavior of the alternating minimization method experimentally.
Experiments demonstrate that the heuristic provides a reasonable approximation
of the input data. Our work is motivated by applications to ReLU neural
networks, a popular class of network architectures in the machine learning
community which are closely related to tropical rational functions.
- Abstract(参考訳): 固定指数を持つ熱帯有理関数の空間上での回帰に対する交互最小化ヒューリスティックを提案する。
この方法は、閉形式解を許容することで知られるトロピカル多項式回帰(英語版)を通じて、ヌメレータと分母項を適合させることに代わる。
交代最小化法の挙動を実験的に実証した。
実験は、ヒューリスティックが入力データの合理的な近似を提供することを示した。
この研究は、熱帯有理関数と密接に関連する機械学習コミュニティで一般的なネットワークアーキテクチャのクラスであるreluニューラルネットワークの応用に動機付けられたものです。
関連論文リスト
- Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - Learning Functional Transduction [9.926231893220063]
そこで本研究では,トランスダクティブ回帰の原理を勾配降下によりメタ学習し,より効率的なインコンテキスト・ニューラル近似器を構築できることを示す。
我々は、データが少ない外部要因の影響を受け、複雑な物理システムをモデル化するためのメタ学習型トランスダクティブアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-02-01T09:14:28Z) - Efficient low temperature simulations for fermionic reservoirs with the
hierarchical equations of motion method: Application to the Anderson impurity
model [0.0]
本研究では、周波数領域におけるフェルミ関数とハイブリダイゼーション関数を近似するために、バリ中心表現を用いる。
これらの関数を最適化された有理分解で近似することにより、貯水池相関関数の分解における基底関数の数を大幅に削減する。
低温条件下でのアンダーソン不純物モデル (AIM) に適用することにより, 新しい分解方式の効率, 精度, 長期安定性を実証する。
論文 参考訳(メタデータ) (2022-11-08T08:46:23Z) - An application of the splitting-up method for the computation of a
neural network representation for the solution for the filtering equations [68.8204255655161]
フィルタ方程式は、数値天気予報、金融、工学など、多くの現実の応用において中心的な役割を果たす。
フィルタリング方程式の解を近似する古典的なアプローチの1つは、分割法と呼ばれるPDEにインスパイアされた方法を使うことである。
我々はこの手法をニューラルネットワーク表現と組み合わせて、信号プロセスの非正規化条件分布の近似を生成する。
論文 参考訳(メタデータ) (2022-01-10T11:01:36Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Multivariate Functional Regression via Nested Reduced-Rank
Regularization [2.730097437607271]
多変量関数応答と予測器を備えた回帰モデルに適用するネスト型低ランク回帰(NRRR)手法を提案する。
非漸近解析により、NRRRは少なくとも低ランク回帰と同等の誤差率を達成できることを示す。
NRRRを電力需要問題に適用し、日中電力消費の軌跡と日中電力消費の軌跡を関連づける。
論文 参考訳(メタデータ) (2020-03-10T14:58:54Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z) - An implicit function learning approach for parametric modal regression [36.568208312835196]
我々は暗黙の関数定理を用いて目的を定め、入力や目標に対する合同関数を学習する。
提案手法は,多値関数を学習し,条件付きモードを生成できる,いくつかの合成問題を実証的に実証する。
論文 参考訳(メタデータ) (2020-02-14T00:37:41Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。