論文の概要: Online Robust and Adaptive Learning from Data Streams
- arxiv url: http://arxiv.org/abs/2007.12160v2
- Date: Mon, 27 Sep 2021 18:36:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 12:04:53.775739
- Title: Online Robust and Adaptive Learning from Data Streams
- Title(参考訳): データストリームからのオンラインロバストと適応学習
- Authors: Shintaro Fukushima and Atsushi Nitanda and Kenji Yamanishi
- Abstract要約: オンライン学習では、アウトレーヤにしっかりと学習し、基盤となるデータ生成メカニズムの変化に迅速に適応する必要がある。
本稿では,従来のオンライン学習アルゴリズムの属性をロバスト性,後者を適応性と呼ぶ。
本稿では,このトレードオフを評価するために,近似に基づくロバスト性適応アルゴリズム(SRA)を提案する。
- 参考スコア(独自算出の注目度): 22.319483572757097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In online learning from non-stationary data streams, it is necessary to learn
robustly to outliers and to adapt quickly to changes in the underlying data
generating mechanism. In this paper, we refer to the former attribute of online
learning algorithms as robustness and to the latter as adaptivity. There is an
obvious tradeoff between the two attributes. It is a fundamental issue to
quantify and evaluate the tradeoff because it provides important information on
the data generating mechanism. However, no previous work has considered the
tradeoff quantitatively. We propose a novel algorithm called the stochastic
approximation-based robustness-adaptivity algorithm (SRA) to evaluate the
tradeoff. The key idea of SRA is to update parameters of distribution or
sufficient statistics with the biased stochastic approximation scheme, while
dropping data points with large values of the stochastic update. We address the
relation between the two parameters: one is the step size of the stochastic
approximation, and the other is the threshold parameter of the norm of the
stochastic update. The former controls the adaptivity and the latter does the
robustness. We give a theoretical analysis for the non-asymptotic convergence
of SRA in the presence of outliers, which depends on both the step size and
threshold parameter. Because SRA is formulated on the majorization-minimization
principle, it is a general algorithm that includes many algorithms, such as the
online EM algorithm and stochastic gradient descent. Empirical experiments for
both synthetic and real datasets demonstrated that SRA was superior to previous
methods.
- Abstract(参考訳): 非定常データストリームからのオンライン学習では,外れ値に対して堅牢に学習し,基礎となるデータ生成メカニズムの変更に迅速に適応する必要がある。
本稿では,従来のオンライン学習アルゴリズムの属性を堅牢性,後者を適応性と呼ぶ。
2つの属性の間に明らかなトレードオフがあります。
データ生成メカニズムに関する重要な情報を提供するため、トレードオフの定量化と評価は基本的な問題である。
しかし、このトレードオフを定量的に考える以前の研究は行われていない。
このトレードオフを評価するために,確率近似に基づくロバストネス適応アルゴリズム(sra)と呼ばれる新しいアルゴリズムを提案する。
SRAの鍵となる考え方は、確率的更新の大きな値を持つデータポイントを落としながら、偏りのある確率的近似スキームで分布のパラメータや十分な統計を更新することである。
1つは確率近似のステップサイズ、もう1つは確率更新のノルムのしきい値パラメータである。
前者は適応性、後者は堅牢性を制御する。
我々は,ステップサイズとしきい値の両方に依存する外接点の存在下でのSRAの非漸近収束に関する理論的解析を行う。
SRAは偏極最小化原理に基づいて定式化されているため、オンラインEMアルゴリズムや確率勾配勾配のような多くのアルゴリズムを含む一般アルゴリズムである。
合成データと実データの両方に対する実験実験により、SRAは従来の手法よりも優れていることが示された。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Online Estimation with Rolling Validation: Adaptive Nonparametric Estimation with Streaming Data [13.069717985067937]
そこで本稿では,オンラインの相互検証方式である重み付き転がりバリデーション手法を提案する。
バッチクロスバリデーションと同様に、ベース推定器を強化して、より優れた適応収束率を達成することができる。
論文 参考訳(メタデータ) (2023-10-18T17:52:57Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression [53.15502562048627]
最近の研究は、自己教師付き学習とグラフラプラシアン作用素のトップ固有空間の近似との関係を構築している。
この研究は、増強に基づく事前訓練の統計的分析に発展する。
論文 参考訳(メタデータ) (2023-06-01T15:18:55Z) - Online Learning Under A Separable Stochastic Approximation Framework [20.26530917721778]
分離可能な近似フレームワークを用いて,機械学習モデルのクラスに対するオンライン学習アルゴリズムを提案する。
提案アルゴリズムは,他の一般的な学習アルゴリズムと比較して,より堅牢でテスト性能が高いことを示す。
論文 参考訳(メタデータ) (2023-05-12T13:53:03Z) - One-Pass Learning via Bridging Orthogonal Gradient Descent and Recursive
Least-Squares [8.443742714362521]
我々は,従来のデータポイントの予測にほとんど変化しない方向にパラメータを変更しながら,すべての新しいデータポイントに完全に適合するワンパス学習アルゴリズムを開発した。
我々のアルゴリズムは、インクリメンタル・プリンシパル・コンポーネント分析(IPCA)を用いてストリーミングデータの構造を利用して、メモリを効率的に利用する。
本実験では,提案手法の有効性をベースラインと比較した。
論文 参考訳(メタデータ) (2022-07-28T02:01:31Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Fast and Robust Online Inference with Stochastic Gradient Descent via
Random Scaling [0.9806910643086042]
本稿では,勾配降下アルゴリズムの平均化法により推定されるパラメータのベクトルに対するオンライン推論法を提案する。
我々のアプローチはオンラインデータで完全に運用されており、機能中心極限定理によって厳格に支えられている。
論文 参考訳(メタデータ) (2021-06-06T15:38:37Z) - A bandit-learning approach to multifidelity approximation [7.960229223744695]
マルチファイデリティ近似は、科学計算とシミュレーションにおいて重要な技術である。
異なる忠実度のデータを利用して正確な推定を行うためのバンディットラーニング手法を紹介します。
論文 参考訳(メタデータ) (2021-03-29T05:29:35Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - Least Squares Regression with Markovian Data: Fundamental Limits and
Algorithms [69.45237691598774]
マルコフ連鎖からデータポイントが依存しサンプリングされる最小二乗線形回帰問題について検討する。
この問題を$tau_mathsfmix$という観点から、鋭い情報理論のミニマックス下限を確立する。
本稿では,経験的リプレイに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-16T04:26:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。