論文の概要: Piecewise Polynomial Regression of Tame Functions via Integer Programming
- arxiv url: http://arxiv.org/abs/2311.13544v3
- Date: Tue, 4 Jun 2024 09:38:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 13:57:08.476394
- Title: Piecewise Polynomial Regression of Tame Functions via Integer Programming
- Title(参考訳): 整数計画法による多項関数の多項回帰
- Authors: Gilles Bareilles, Johannes Aspman, Jiri Nemecek, Jakub Marecek,
- Abstract要約: 我々は,tame関数,すべての共通活性化をもつ非平滑関数,混合整数プログラムの値関数,小分子の波動関数を考える。
- 参考スコア(独自算出の注目度): 2.2499166814992435
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tame functions are a class of nonsmooth, nonconvex functions, which feature in a wide range of applications: functions encountered in the training of deep neural networks with all common activations, value functions of mixed-integer programs, or wave functions of small molecules. We consider approximating tame functions with piecewise polynomial functions. We bound the quality of approximation of a tame function by a piecewise polynomial function with a given number of segments on any full-dimensional cube. We also present the first mixed-integer programming formulation of piecewise polynomial regression. Together, these can be used to estimate tame functions. We demonstrate promising computational results.
- Abstract(参考訳): タマ関数は非滑らかで非凸関数のクラスであり、全ての共通の活性化を伴うディープニューラルネットワークのトレーニングで遭遇する関数、混合整数プログラムの値関数、または小さな分子の波動関数である。
片方向多項式関数を用いたタメ関数の近似について検討する。
我々は、任意の全次元立方体上の与えられたセグメント数を持つ分数多項式関数により、テーム関数の近似の質を束縛する。
また,数次多項式回帰の混合整数計画法を初めて提案する。
これらを合わせて、テーム関数を推定することができる。
有望な計算結果を示す。
関連論文リスト
- Neural Estimation of Submodular Functions with Applications to
Differentiable Subset Selection [50.14730810124592]
サブモジュール関数と変種は、多様性とカバレッジを特徴付ける能力を通じて、データ選択と要約のための重要なツールとして登場した。
本稿では,モノトーンおよび非モノトーン部分モジュラー関数のためのフレキシブルニューラルネットワークであるFLEXSUBNETを提案する。
論文 参考訳(メタデータ) (2022-10-20T06:00:45Z) - Sparsification of Decomposable Submodular Functions [27.070004659301162]
サブモジュール関数は多くの機械学習とデータマイニングタスクの中核にある。
元の関数の根底にある部分モジュラ関数の数がとても多いので、処理に多くの時間が必要で、あるいはメインメモリに収まらない場合もあります。
分解可能部分モジュラ函数に対するスパーシフィケーションの概念を導入し、元の関数の正確な近似を得る目的は、少数の部分モジュラ函数の(重み付けされた)和である。
論文 参考訳(メタデータ) (2022-01-18T20:05:25Z) - Neural Network Approximation of Refinable Functions [8.323468006516018]
本研究では, 深部ReLUネットワークの出力幅が一定であり, 精度指数で深部を増大させることにより, 精錬可能関数が近似可能であることを示す。
本研究は,ウェーブレットの標準構成に使用される関数と,コンピュータ支援幾何設計における部分分割アルゴリズムを用いて構築される関数に適用する。
論文 参考訳(メタデータ) (2021-07-28T06:45:36Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - Learning Aggregation Functions [78.47770735205134]
任意の濃度の集合に対する学習可能なアグリゲータであるLAF(Learning Aggregation Function)を紹介する。
半合成および実データを用いて,LAFが最先端の和(max-)分解アーキテクチャより優れていることを示す実験を報告する。
論文 参考訳(メタデータ) (2020-12-15T18:28:53Z) - On Polynomial Approximations for Privacy-Preserving and Verifiable ReLU
Networks [6.130998208629276]
次数2のアクティベーション関数を1次項で提案し、より優れたモデルに導出できることを実証的に示す。
提案関数は正方形関数と比較して最大10.4%精度が向上する。
論文 参考訳(メタデータ) (2020-11-11T03:32:22Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Estimating Multiplicative Relations in Neural Networks [0.0]
対数関数の特性を用いて、積を線形表現に変換し、バックプロパゲーションを用いて学習できるアクティベーション関数のペアを提案する。
いくつかの複雑な算術関数に対してこのアプローチを一般化し、トレーニングセットとの不整合分布の精度を検証しようと試みる。
論文 参考訳(メタデータ) (2020-10-28T14:28:24Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z) - From Sets to Multisets: Provable Variational Inference for Probabilistic
Integer Submodular Models [82.95892656532696]
サブモジュール関数は機械学習やデータマイニングにおいて広く研究されている。
本研究では,整数部分モジュラ函数に対する連続DR-部分モジュラ拡張を提案する。
整数部分モジュラー関数によって定義される新しい確率モデルを定式化する。
論文 参考訳(メタデータ) (2020-06-01T22:20:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。