論文の概要: $\mathcal{C}^k$-continuous Spline Approximation with TensorFlow Gradient
Descent Optimizers
- arxiv url: http://arxiv.org/abs/2303.12454v1
- Date: Wed, 22 Mar 2023 10:52:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 14:24:17.432309
- Title: $\mathcal{C}^k$-continuous Spline Approximation with TensorFlow Gradient
Descent Optimizers
- Title(参考訳): tensorflow勾配降下オプティマイザを用いた$\mathcal{c}^k$-continuous spline近似
- Authors: Stefan Huber, Hannes Waclawek
- Abstract要約: 産業最適化問題に対する機械学習(ML)の「アウト・オブ・ボックス」アプリケーションを提案する。
我々はcam近似設定でデプロイ可能な$mathcalCk$-continuos関数のフィッティングのためのピースワイズモデル(スプライン)を導入する。
次に、機械学習フレームワークが提供する勾配勾配勾配最適化を用いて、近似品質と$mathcalCk$-continuityに関するモデルパラメータを最適化する。
- 参考スコア(独自算出の注目度): 2.0305676256390934
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this work we present an "out-of-the-box" application of Machine Learning
(ML) optimizers for an industrial optimization problem. We introduce a
piecewise polynomial model (spline) for fitting of $\mathcal{C}^k$-continuos
functions, which can be deployed in a cam approximation setting. We then use
the gradient descent optimization context provided by the machine learning
framework TensorFlow to optimize the model parameters with respect to
approximation quality and $\mathcal{C}^k$-continuity and evaluate available
optimizers. Our experiments show that the problem solution is feasible using
TensorFlow gradient tapes and that AMSGrad and SGD show the best results among
available TensorFlow optimizers. Furthermore, we introduce a novel
regularization approach to improve SGD convergence. Although experiments show
that remaining discontinuities after optimization are small, we can eliminate
these errors using a presented algorithm which has impact only on affected
derivatives in the local spline segment.
- Abstract(参考訳): 本研究では、産業最適化問題に対する機械学習最適化(ML)の「アウト・オブ・ボックス」アプリケーションを提案する。
我々は,cam近似設定で展開可能な$\mathcal{c}^k$-continuos関数に適合する分割多項式モデル(spline)を提案する。
次に、機械学習フレームワークTensorFlowが提供する勾配勾配勾配最適化コンテキストを用いて、近似品質と$\mathcal{C}^k$-continuityのモデルパラメータを最適化し、利用可能なオプティマイザを評価する。
実験の結果、TensorFlowグラデーションテープを用いて問題解が実現可能であり、AMSGradとSGDがTensorFlowオプティマイザの中で最良の結果を示すことがわかった。
さらに,SGD収束を改善するための新たな正規化手法を提案する。
実験の結果, 最適化後の不連続性は小さいが, 局所スプラインセグメントの導関数にのみ影響するアルゴリズムを用いて, これらの誤差を除去できることがわかった。
関連論文リスト
- Methods for Convex $(L_0,L_1)$-Smooth Optimization: Clipping, Acceleration, and Adaptivity [50.25258834153574]
我々は、(強に)凸 $(L0)$-smooth 関数のクラスに焦点を当て、いくつかの既存のメソッドに対する新しい収束保証を導出する。
特に,スムーズなグラディエント・クリッピングを有するグラディエント・ディフレッシュと,ポリアク・ステップサイズを有するグラディエント・ディフレッシュのコンバージェンス・レートの改善を導出した。
論文 参考訳(メタデータ) (2024-09-23T13:11:37Z) - Dynamic Anisotropic Smoothing for Noisy Derivative-Free Optimization [0.0]
雑音のない微分自由最適化のための球平滑化法とガウス平滑化法を拡張した新しいアルゴリズムを提案する。
アルゴリズムはスムーズなカーネルの形状を動的に適応させ、局所最適関数の Hessian を近似する。
論文 参考訳(メタデータ) (2024-05-02T21:04:20Z) - Machine Learning Optimized Orthogonal Basis Piecewise Polynomial Approximation [0.9208007322096533]
Piecewise Polynomials (PP) は、軌道計画のようないくつかの工学分野において、点の集合の形で与えられる位置プロファイルを近似するために用いられる。
論文 参考訳(メタデータ) (2024-03-13T14:34:34Z) - A simple uniformly optimal method without line search for convex optimization [9.280355951055865]
パラメータが優先されていない凸最適化問題の解法として最適収束率を得るには,線探索が過剰であることを示す。
滑らかな凸最適化のために最適な$mathcalO (1/k2)$収束率を達成できるAC-FGMと呼ばれる新しい勾配降下型アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-16T05:26:03Z) - Stochastic Bias-Reduced Gradient Methods [44.35885731095432]
モロー・吉田関数の任意の有界な$x_star$の低バイアスで低コストな平滑化である。
論文 参考訳(メタデータ) (2021-06-17T13:33:05Z) - Implicit differentiation for fast hyperparameter selection in non-smooth
convex learning [87.60600646105696]
内部最適化問題が凸であるが非滑らかである場合の一階法を研究する。
本研究では, ヤコビアンの近位勾配降下と近位座標降下収率列の前方モード微分が, 正確なヤコビアンに向かって収束していることを示す。
論文 参考訳(メタデータ) (2021-05-04T17:31:28Z) - Divide and Learn: A Divide and Conquer Approach for Predict+Optimize [50.03608569227359]
予測+最適化問題は、予測係数を使用する最適化プロブレムと、確率係数の機械学習を組み合わせる。
本稿では, 予測係数を1次線形関数として, 最適化問題の損失を直接表現する方法を示す。
本稿では,この制約を伴わずに最適化問題に対処し,最適化損失を用いてその係数を予測する新しい分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-04T00:26:56Z) - Self Normalizing Flows [65.73510214694987]
本稿では,各層における学習された近似逆数により,勾配の高価な項を置き換えることで,フローの正規化を訓練するための柔軟なフレームワークを提案する。
これにより、各レイヤの正確な更新の計算複雑性が$mathcalO(D3)$から$mathcalO(D2)$に削減される。
実験により,これらのモデルは非常に安定であり,正確な勾配値と類似したデータ可能性値に最適化可能であることが示された。
論文 参考訳(メタデータ) (2020-11-14T09:51:51Z) - A Primer on Zeroth-Order Optimization in Signal Processing and Machine
Learning [95.85269649177336]
ZO最適化は、勾配推定、降下方向、ソリューション更新の3つの主要なステップを反復的に実行する。
我々は,ブラックボックス深層学習モデルによる説明文の評価や生成,効率的なオンラインセンサ管理など,ZO最適化の有望な応用を実証する。
論文 参考訳(メタデータ) (2020-06-11T06:50:35Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。