論文の概要: Mathematical Perspective of Machine Learning
- arxiv url: http://arxiv.org/abs/2007.01503v1
- Date: Fri, 3 Jul 2020 05:26:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 04:36:27.176108
- Title: Mathematical Perspective of Machine Learning
- Title(参考訳): 機械学習の数学的展望
- Authors: Yarema Boryshchak
- Abstract要約: 我々は、関数近似としての機械学習の理論的課題、デフォルト最適化アルゴリズムとしての勾配降下、固定長と幅ネットワークの制限、数学的観点からのRNNに対する異なるアプローチについて詳しく検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We take a closer look at some theoretical challenges of Machine Learning as a
function approximation, gradient descent as the default optimization algorithm,
limitations of fixed length and width networks and a different approach to RNNs
from a mathematical perspective.
- Abstract(参考訳): 我々は、関数近似としての機械学習の理論的課題、デフォルト最適化アルゴリズムとしての勾配降下、固定長と幅ネットワークの制限、数学的観点からのRNNに対する異なるアプローチについて詳しく検討する。
関連論文リスト
- Cross-Entropy Optimization for Hyperparameter Optimization in Stochastic Gradient-based Approaches to Train Deep Neural Networks [2.1046873879077794]
学習アルゴリズムのハイパーパラメータ最適化のためのクロスエントロピー最適化法を提案する。
提案手法は,ディープラーニングにおける他の最適化問題にも適用可能である。
論文 参考訳(メタデータ) (2024-09-14T00:39:37Z) - Metric Learning to Accelerate Convergence of Operator Splitting Methods for Differentiable Parametric Programming [46.26499759722771]
本稿では,識別可能な最適化が,近位尺度のエンドツーエンド学習をいかに実現するかを示す。
結果は、学習した近位度とオプティマにおけるアクティブな制約との間に強い関連性を示す。
論文 参考訳(メタデータ) (2024-04-01T03:23:43Z) - A Gentle Introduction to Gradient-Based Optimization and Variational
Inequalities for Machine Learning [46.98201017084005]
機械学習における勾配に基づくアルゴリズムのフレームワークを提供する。
まず、サドル点と単調ゲームから始め、一般的な変分不等式へと進む。
いくつかのアルゴリズムに収束証明を提供していますが、主な焦点はモチベーションと直感を提供することです。
論文 参考訳(メタデータ) (2023-09-09T21:36:51Z) - Representation Learning with Multi-Step Inverse Kinematics: An Efficient
and Optimal Approach to Rich-Observation RL [106.82295532402335]
既存の強化学習アルゴリズムは、計算的難易度、強い統計的仮定、最適なサンプルの複雑さに悩まされている。
所望の精度レベルに対して、レート最適サンプル複雑性を実現するための、最初の計算効率の良いアルゴリズムを提供する。
我々のアルゴリズムMusIKは、多段階の逆運動学に基づく表現学習と体系的な探索を組み合わせる。
論文 参考訳(メタデータ) (2023-04-12T14:51:47Z) - Unsupervised Legendre-Galerkin Neural Network for Stiff Partial
Differential Equations [9.659504024299896]
本稿では,Regendre-Galerkinニューラルネットワークに基づく教師なし機械学習アルゴリズムを提案する。
提案したニューラルネットワークは、境界層挙動を有する特異摂動PDEと同様に、一般的な1Dおよび2DPDEに適用される。
論文 参考訳(メタデータ) (2022-07-21T00:47:47Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - A Dynamical View on Optimization Algorithms of Overparameterized Neural
Networks [23.038631072178735]
我々は、一般的に使用される最適化アルゴリズムの幅広いクラスについて考察する。
その結果、ニューラルネットワークの収束挙動を利用することができる。
このアプローチは他の最適化アルゴリズムやネットワーク理論にも拡張できると考えています。
論文 参考訳(メタデータ) (2020-10-25T17:10:22Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。