論文の概要: Extended Linear Regression: A Kalman Filter Approach for Minimizing Loss
via Area Under the Curve
- arxiv url: http://arxiv.org/abs/2308.12280v1
- Date: Wed, 23 Aug 2023 17:50:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 13:18:14.843493
- Title: Extended Linear Regression: A Kalman Filter Approach for Minimizing Loss
via Area Under the Curve
- Title(参考訳): 拡張線形回帰:曲線下における損失最小化のためのカルマンフィルタアプローチ
- Authors: Gokulprasath R
- Abstract要約: この研究は、損失を最小限に抑えるためにカルマンフィルタと曲線領域の解析を統合することで線形回帰モデルを強化する。
目的は、重み更新に勾配勾配勾配(SGD)を用いた最適線形回帰方程式を開発することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This research enhances linear regression models by integrating a Kalman
filter and analysing curve areas to minimize loss. The goal is to develop an
optimal linear regression equation using stochastic gradient descent (SGD) for
weight updating. Our approach involves a stepwise process, starting with
user-defined parameters. The linear regression model is trained using SGD,
tracking weights and loss separately and zipping them finally. A Kalman filter
is then trained based on weight and loss arrays to predict the next
consolidated weights. Predictions result from multiplying input averages with
weights, evaluated for loss to form a weight-versus-loss curve. The curve's
equation is derived using the two-point formula, and area under the curve is
calculated via integration. The linear regression equation with minimum area
becomes the optimal curve for prediction. Benefits include avoiding constant
weight updates via gradient descent and working with partial datasets, unlike
methods needing the entire set. However, computational complexity should be
considered. The Kalman filter's accuracy might diminish beyond a certain
prediction range.
- Abstract(参考訳): この研究は、損失を最小限に抑えるためにカルマンフィルタと曲線領域の解析を統合することで線形回帰モデルを強化する。
目標は,重みの更新に確率的勾配降下(sgd)を用いた最適線形回帰方程式の開発である。
我々のアプローチは、ユーザー定義パラメータから始める段階的なプロセスを伴う。
線形回帰モデルはSGDを用いてトレーニングされ、重みと損失を別々に追跡し、最終的にジッピングする。
その後、カルマンフィルタは重みと損失アレイに基づいてトレーニングされ、次の統合重みを予測する。
予測は入力平均を重みで乗算し、損失を評価して重み-逆損失曲線を形成する。
曲線方程式は2点式を用いて導出され、曲線の下の領域は積分によって計算される。
最小面積の線形回帰方程式は予測の最適曲線となる。
利点としては、勾配降下による一定の重み付け更新の回避と、データセット全体を必要とするメソッドとは異なり、部分データセットの処理がある。
しかし計算の複雑さは考慮すべきである。
カルマンフィルタの精度は特定の予測範囲を超えて低下する可能性がある。
関連論文リスト
- Unbiased Kinetic Langevin Monte Carlo with Inexact Gradients [0.8749675983608172]
動力学的ランゲヴィンダイナミクスに基づく後進手段の非バイアス化手法を提案する。
提案した推定器は偏りがなく、有限分散となり、中心極限定理を満たす。
以上の結果から、大規模アプリケーションでは、非バイアスアルゴリズムは「ゴールドスタンダード」なハミルトニアン・モンテカルロよりも2~3桁効率が良いことが示された。
論文 参考訳(メタデータ) (2023-11-08T21:19:52Z) - One Step of Gradient Descent is Provably the Optimal In-Context Learner
with One Layer of Linear Self-Attention [31.522320487765878]
最近の研究は、文脈内学習を実証的に分析している。
線形自己アテンションを持つ一層変圧器は勾配降下の一段階を実装することを学習する。
論文 参考訳(メタデータ) (2023-07-07T13:09:18Z) - Probabilistic Unrolling: Scalable, Inverse-Free Maximum Likelihood
Estimation for Latent Gaussian Models [69.22568644711113]
我々は,モンテカルロサンプリングと反復線形解法を組み合わせた確率的アンローリングを導入し,行列逆転を回避した。
理論的解析により,解法の繰り返しによる解法の解法と逆転が最大値推定の勾配推定を高速化することを示した。
シミュレーションおよび実データ実験において、確率的アンロールは、モデル性能の損失を最小限に抑えながら、勾配EMよりも桁違いに高速な潜在ガウスモデルを学習することを示した。
論文 参考訳(メタデータ) (2023-06-05T21:08:34Z) - Nearly Minimax Optimal Reinforcement Learning for Linear Markov Decision
Processes [80.89852729380425]
そこで本研究では,最小限の最小残差である$tilde O(dsqrtH3K)$を計算効率よく実現したアルゴリズムを提案する。
我々の研究は線形 MDP を用いた最適 RL に対する完全な答えを提供する。
論文 参考訳(メタデータ) (2022-12-12T18:58:59Z) - PathProx: A Proximal Gradient Algorithm for Weight Decay Regularized
Deep Neural Networks [25.114642281756495]
ウェイト崩壊(Weight decay)は、ディープラーニングにおいて最も広く使われている正規化形式の一つである。
本稿では、勾配勾配勾配は、この目的に対して非効率なアルゴリズムであると主張している。
ReLUアクティベーションを持つニューラルネットワークの場合、重み劣化対象に対する解は異なる目的の解と等価である。
論文 参考訳(メタデータ) (2022-10-06T17:22:40Z) - Hardness and Algorithms for Robust and Sparse Optimization [17.842787715567436]
スパース線形回帰やロバスト線形回帰といったスパース最適化問題に対するアルゴリズムと制限について検討する。
具体的には、スパース線型回帰問題は$k$-スパースベクトル$xinmathbbRd$を求め、$|Ax-b|$を最小化する。
頑健な線形回帰問題は、少なくとも$k$行を無視する集合$S$と、$|(Ax-b)_S|$を最小化するベクトル$x$を求める。
論文 参考訳(メタデータ) (2022-06-29T01:40:38Z) - Large Scale Private Learning via Low-rank Reparametrization [77.38947817228656]
本稿では、大規模ニューラルネットワークに微分プライベートSGDを適用する際の課題を解決するために、再パラメータ化方式を提案する。
BERTモデルにディファレンシャルプライバシを適用し、4つの下流タスクで平均精度が8,3.9%に達するのはこれが初めてである。
論文 参考訳(メタデータ) (2021-06-17T10:14:43Z) - Piecewise linear regression and classification [0.20305676256390928]
本稿では,線形予測器を用いた多変量回帰と分類問題の解法を提案する。
本論文で記述されたアルゴリズムのpython実装は、http://cse.lab.imtlucca.it/bemporad/parcで利用可能である。
論文 参考訳(メタデータ) (2021-03-10T17:07:57Z) - Online nonparametric regression with Sobolev kernels [99.12817345416846]
我々は、ソボレフ空間のクラス上の後悔の上限を$W_pbeta(mathcalX)$, $pgeq 2, beta>fracdp$ とする。
上界は minimax regret analysis で支えられ、$beta> fracd2$ または $p=infty$ の場合、これらの値は(本質的に)最適である。
論文 参考訳(メタデータ) (2021-02-06T15:05:14Z) - Least Squares Regression with Markovian Data: Fundamental Limits and
Algorithms [69.45237691598774]
マルコフ連鎖からデータポイントが依存しサンプリングされる最小二乗線形回帰問題について検討する。
この問題を$tau_mathsfmix$という観点から、鋭い情報理論のミニマックス下限を確立する。
本稿では,経験的リプレイに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-16T04:26:50Z) - Carath\'eodory Sampling for Stochastic Gradient Descent [79.55586575988292]
本稿では,Tchakaloff と Carath'eodory の古典的な結果から着想を得た手法を提案する。
我々は、測定値の低減を行う降下ステップを適応的に選択する。
これをBlock Coordinate Descentと組み合わせることで、測定の削減を極めて安価に行えるようにします。
論文 参考訳(メタデータ) (2020-06-02T17:52:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。