論文の概要: Personalized Online Machine Learning
- arxiv url: http://arxiv.org/abs/2109.10452v1
- Date: Tue, 21 Sep 2021 22:52:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 22:58:56.356582
- Title: Personalized Online Machine Learning
- Title(参考訳): パーソナライズされたオンライン機械学習
- Authors: Ivana Malenica, Rachael V. Phillips, Romain Pirracchio, Antoine
Chambaz, Alan Hubbard, Mark J. van der Laan
- Abstract要約: 我々はPersonalized Online Super Learner (POSL) を紹介した。
POSLのアンサンブルは、収集されたデータ量、時系列の定常性、時系列群の相互特性に依存する。
我々は,POSLが時系列データに対して信頼性の高い予測を提供し,データ生成環境の変化に適応できることを実証した。
- 参考スコア(独自算出の注目度): 1.9573380763700712
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we introduce the Personalized Online Super Learner (POSL) -- an
online ensembling algorithm for streaming data whose optimization procedure
accommodates varying degrees of personalization. Namely, POSL optimizes
predictions with respect to baseline covariates, so personalization can vary
from completely individualized (i.e., optimization with respect to baseline
covariate subject ID) to many individuals (i.e., optimization with respect to
common baseline covariates). As an online algorithm, POSL learns in real-time.
POSL can leverage a diversity of candidate algorithms, including online
algorithms with different training and update times, fixed algorithms that are
never updated during the procedure, pooled algorithms that learn from many
individuals' time-series, and individualized algorithms that learn from within
a single time-series. POSL's ensembling of this hybrid of base learning
strategies depends on the amount of data collected, the stationarity of the
time-series, and the mutual characteristics of a group of time-series. In
essence, POSL decides whether to learn across samples, through time, or both,
based on the underlying (unknown) structure in the data. For a wide range of
simulations that reflect realistic forecasting scenarios, and in a medical data
application, we examine the performance of POSL relative to other current
ensembling and online learning methods. We show that POSL is able to provide
reliable predictions for time-series data and adjust to changing
data-generating environments. We further cultivate POSL's practicality by
extending it to settings where time-series enter/exit dynamically over
chronological time.
- Abstract(参考訳): 本研究では、パーソナライズされたオンライン・スーパーラーナー(POSL)について紹介する。これは、パーソナライゼーションの度合いに応じて最適化手順が適合するストリーミングデータのためのオンライン・アンサンブル・アルゴリズムである。
すなわち、POSLはベースラインの共変量に関する予測を最適化するので、パーソナライゼーションは完全な個別化(つまり、ベースラインの共変量 ID に関する最適化)から多くの個人(つまり、共通ベースラインの共変量に関する最適化)まで様々である。
オンラインアルゴリズムとして、POSLはリアルタイムで学習する。
poslは、異なるトレーニングと更新時間を持つオンラインアルゴリズム、手順中に更新されない固定アルゴリズム、多くの個人の時系列から学習するプールアルゴリズム、単一の時系列内で学習する個別化アルゴリズムなど、さまざまな候補アルゴリズムを活用することができる。
基本学習戦略のハイブリッド化は,収集したデータ量,時系列の定常性,時系列群の相互特性に依存する。
本質的には、POSLはデータの基盤となる(未知の)構造に基づいて、時間を通して、あるいは両方を通してサンプルを学習するかを決定する。
現実的な予測シナリオを反映した広範囲なシミュレーションや、医療データアプリケーションでは、POSLの性能を現在の学習方法やオンライン学習法と比較して検討する。
poslは時系列データの信頼性の高い予測を提供し,データ生成環境の変化に適応できることを示す。
時系列上で動的に時系列を入力/出力する設定に拡張することで,POSLの実用性をさらに向上する。
関連論文リスト
- Efficient Online Data Mixing For Language Model Pre-Training [101.45242332613944]
既存のデータ選択方法は、遅くて計算コストのかかるプロセスに悩まされる。
一方、データミキシングは、データポイントをまとめることで、データ選択の複雑さを低減する。
我々は,データ選択とデータ混合の両要素を組み合わせたオンラインデータ混合(ODM)の効率的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-05T00:42:35Z) - Estimating Post-Synaptic Effects for Online Training of Feed-Forward
SNNs [0.27016900604393124]
スパイクニューラルネットワーク(SNN)におけるオンライン学習の実現は、イベントベースのモデルを開発する上で重要なステップである。
本稿では, フィードフォワードSNNのトレーニングのためのOTPE(Online Training with Postsynaptic Estimates)を提案する。
本研究では, 時間的効果の新たな近似法を用いて, マルチ層ネットワークのスケーリング改善を示す。
論文 参考訳(メタデータ) (2023-11-07T16:53:39Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Online Distributed Learning with Quantized Finite-Time Coordination [0.4910937238451484]
私たちの設定では、エージェントのセットは、ストリーミングデータから学習モデルを協調的にトレーニングする必要があります。
本稿では,量子化された有限時間協調プロトコルに依存する分散アルゴリズムを提案する。
提案アルゴリズムの性能を,オンラインソリューションからの平均距離の観点から解析する。
論文 参考訳(メタデータ) (2023-07-13T08:36:15Z) - Self-Supervised Learning for Time Series Analysis: Taxonomy, Progress,
and Prospects [87.21528291896783]
自己教師付き学習(SSL)は、最近、様々な時系列タスクで印象的なパフォーマンスを達成した。
この記事では、時系列データに対する最先端のSSLメソッドについてレビューする。
論文 参考訳(メタデータ) (2023-06-16T18:23:10Z) - DPP-based Client Selection for Federated Learning with Non-IID Data [97.1195165400568]
本稿では,統合学習(FL)のコミュニケーションボトルネックに対処するクライアント選択(CS)手法を提案する。
まず、FLにおけるCSの効果を分析し、各学習ラウンドにおけるトレーニングデータセットの多様化に参加者を適切に選択することで、FLトレーニングを加速させることができることを示す。
我々は、データプロファイリングと決定点プロセス(DPP)サンプリング技術を活用し、DPPに基づく参加者選択(FL-DP$3$S)によるフェデレートラーニング(Federated Learning)と呼ばれるアルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-03-30T13:14:54Z) - Position tracking of a varying number of sound sources with sliding
permutation invariant training [19.873949136858354]
深層学習音源定位モデルのための新しいトレーニング戦略を提案する。
これは推定位置と基準位置の最適関係の平均2乗誤差に基づいている。
フレームワイドのローカライズ精度を損なうことなく、アイデンティティスイッチを最小化する。
論文 参考訳(メタデータ) (2022-10-26T07:54:47Z) - Efficient Nearest Neighbor Language Models [114.40866461741795]
非パラメトリックニューラルネットワークモデル(NLM)は、外部データストアを用いてテキストの予測分布を学習する。
比較性能を維持しながら、推論速度の最大6倍の高速化を実現する方法を示す。
論文 参考訳(メタデータ) (2021-09-09T12:32:28Z) - Self-Supervised Learning of Graph Neural Networks: A Unified Review [50.71341657322391]
ラベルなしサンプルを多用する新たなパラダイムとして,自己教師型学習が登場している。
SSLを用いたグラフニューラルネットワーク(GNNs)のトレーニング方法の統一レビューを提供します。
gnnに対するssl手法の処理は,様々な手法の類似性と相違に光を当て,新しい手法やアルゴリズムの開発段階を定めている。
論文 参考訳(メタデータ) (2021-02-22T03:43:45Z) - Progressive Growing of Neural ODEs [7.558546277131641]
本研究では,長期連続予測のためのNODEの漸進的学習パラダイムを提案する。
具体的には、カリキュラム学習の原則に従って、トレーニングが進むにつれて、データとネットワーク容量の複雑さが徐々に増大する。
合成データと実交通データ(PeMSベイエリア交通データ)を併用した実験により,バニラノードの性能を64%以上改善した。
論文 参考訳(メタデータ) (2020-03-08T01:15:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。