論文の概要: Sequential Gradient Descent and Quasi-Newton's Method for Change-Point
Analysis
- arxiv url: http://arxiv.org/abs/2210.12235v1
- Date: Fri, 21 Oct 2022 20:30:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 14:30:27.070782
- Title: Sequential Gradient Descent and Quasi-Newton's Method for Change-Point
Analysis
- Title(参考訳): 逐次勾配降下と準ニュートン法による変化点解析
- Authors: Xianyang Zhang and Trisha Dawn
- Abstract要約: 変更点を検出するための一般的なアプローチは、変更点の数と位置に関するコスト関数を最小化することである。
本稿では, 勾配降下法 (SeGD) と準ニュートン法 (SeN) とを結合し, コストを効果的に求める新しいシーケンシャル手法 (SE) を提案する。
- 参考スコア(独自算出の注目度): 0.348097307252416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One common approach to detecting change-points is minimizing a cost function
over possible numbers and locations of change-points. The framework includes
several well-established procedures, such as the penalized likelihood and
minimum description length. Such an approach requires finding the cost value
repeatedly over different segments of the data set, which can be time-consuming
when (i) the data sequence is long and (ii) obtaining the cost value involves
solving a non-trivial optimization problem. This paper introduces a new
sequential method (SE) that can be coupled with gradient descent (SeGD) and
quasi-Newton's method (SeN) to find the cost value effectively. The core idea
is to update the cost value using the information from previous steps without
re-optimizing the objective function. The new method is applied to change-point
detection in generalized linear models and penalized regression. Numerical
studies show that the new approach can be orders of magnitude faster than the
Pruned Exact Linear Time (PELT) method without sacrificing estimation accuracy.
- Abstract(参考訳): 変更点を検出する一般的なアプローチのひとつは、変更点の可能な数と場所に対するコスト関数の最小化である。
このフレームワークには、ペナル化可能性や最小記述長など、確立された手順がいくつか含まれている。
このようなアプローチでは、データセットの異なるセグメントに対して繰り返しコスト値を見つける必要があります。
(i)データシーケンスが長いこと
2) コスト値を得るには、非自明な最適化問題を解く必要がある。
本稿では, 勾配降下法 (SeGD) と準ニュートン法 (SeN) とを結合し, コストを効果的に求める新しいシーケンシャル手法 (SE) を提案する。
核となるアイデアは、目的関数を再最適化することなく、以前のステップの情報を使用してコスト値を更新することである。
一般化線形モデルとペナリゼーションモデルにおける変化点検出に新しい手法を適用した。
数値計算により,新しい手法は推定精度を犠牲にすることなく,Pruned Exact Linear Time (PELT)法よりも桁違いに高速であることが示された。
関連論文リスト
- Efficient Low-rank Identification via Accelerated Iteratively Reweighted Nuclear Norm Minimization [8.879403568685499]
パラメータの平滑化に適応的な更新戦略を導入する。
この振る舞いは、アルゴリズムを数回繰り返した後に、効果的に問題を解決するものに変えます。
すべてのイテレーションが重要なものであることを保証し、グローバルに提案された実験を証明します。
論文 参考訳(メタデータ) (2024-06-22T02:37:13Z) - Online non-parametric likelihood-ratio estimation by Pearson-divergence
functional minimization [55.98760097296213]
iid 観測のペア $(x_t sim p, x'_t sim q)$ が時間の経過とともに観測されるような,オンラインな非パラメトリック LRE (OLRE) のための新しいフレームワークを提案する。
本稿では,OLRE法の性能に関する理論的保証と,合成実験における実証的検証について述べる。
論文 参考訳(メタデータ) (2023-11-03T13:20:11Z) - Nearly Minimax Optimal Reinforcement Learning for Linear Markov Decision
Processes [80.89852729380425]
そこで本研究では,最小限の最小残差である$tilde O(dsqrtH3K)$を計算効率よく実現したアルゴリズムを提案する。
我々の研究は線形 MDP を用いた最適 RL に対する完全な答えを提供する。
論文 参考訳(メタデータ) (2022-12-12T18:58:59Z) - An Accelerated Doubly Stochastic Gradient Method with Faster Explicit
Model Identification [97.28167655721766]
本稿では、分散正規化損失最小化問題に対する2倍加速勾配降下法(ADSGD)を提案する。
まず、ADSGDが線形収束率を達成でき、全体的な計算複雑性を低減できることを示す。
論文 参考訳(メタデータ) (2022-08-11T22:27:22Z) - Momentum-Based Policy Gradient with Second-Order Information [40.51117836892182]
本稿では,2次情報を勾配降下に組み込んだSHARP法を提案する。
従来の研究と異なり,提案アルゴリズムでは,分散還元プロセスの利点を損なうような重要サンプリングを必要としない。
提案手法が様々な制御課題に対して有効であることを示すとともに,実際の技術状況に対する優位性を示す。
論文 参考訳(メタデータ) (2022-05-17T11:56:50Z) - Continuous-Time Meta-Learning with Forward Mode Differentiation [65.26189016950343]
本稿では,勾配ベクトル場の力学に適応するメタ学習アルゴリズムであるContinuous Meta-Learning(COMLN)を紹介する。
学習プロセスをODEとして扱うことは、軌跡の長さが現在連続しているという顕著な利点を提供する。
本稿では,実行時とメモリ使用時の効率を実証的に示すとともに,いくつかの画像分類問題に対して有効性を示す。
論文 参考訳(メタデータ) (2022-03-02T22:35:58Z) - Bolstering Stochastic Gradient Descent with Model Building [0.0]
勾配降下法とその変種は、優れた収束率を達成するためのコア最適化アルゴリズムを構成する。
本稿では,前方ステップモデル構築に基づく新しいアルゴリズムを用いて,線探索の代替手法を提案する。
提案アルゴリズムは、よく知られたテスト問題において、より高速な収束とより優れた一般化を実現する。
論文 参考訳(メタデータ) (2021-11-13T06:54:36Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Least Squares Regression with Markovian Data: Fundamental Limits and
Algorithms [69.45237691598774]
マルコフ連鎖からデータポイントが依存しサンプリングされる最小二乗線形回帰問題について検討する。
この問題を$tau_mathsfmix$という観点から、鋭い情報理論のミニマックス下限を確立する。
本稿では,経験的リプレイに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-16T04:26:50Z) - Optimizing generalization on the train set: a novel gradient-based
framework to train parameters and hyperparameters simultaneously [0.0]
一般化は機械学習における中心的な問題である。
本稿では,新たなリスク尺度に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-11T18:04:36Z) - Resolving learning rates adaptively by locating Stochastic Non-Negative
Associated Gradient Projection Points using line searches [0.0]
ニューラルネットワークトレーニングにおける学習率は現在、高価なマニュアルや自動チューニングを使用したトレーニングの優先事項として決定されている。
本研究では,ニューラルネットワーク学習アルゴリズムの学習率を解くために,勾配のみの線探索を提案する。
論文 参考訳(メタデータ) (2020-01-15T03:08:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。