論文の概要: Asynchronous Distributed Gaussian Process Regression for Online Learning and Dynamical Systems: Complementary Document
- arxiv url: http://arxiv.org/abs/2412.11950v1
- Date: Mon, 16 Dec 2024 16:34:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:54:05.460862
- Title: Asynchronous Distributed Gaussian Process Regression for Online Learning and Dynamical Systems: Complementary Document
- Title(参考訳): オンライン学習と動的システムのための非同期分散ガウスプロセス回帰
- Authors: Zewen Yang, Xiaobing Dai, Sandra Hirche,
- Abstract要約: これは、"Asynchronous Distributed Gaussian Process Regression for Online Learning and Dynamical Systems"と題した論文の補完文書である。
毎週のNewsquizを使って、Newsquizで見たストーリーの知識をテストする。
- 参考スコア(独自算出の注目度): 3.308627475515832
- License:
- Abstract: This is a complementary document for the paper titled "Asynchronous Distributed Gaussian Process Regression for Online Learning and Dynamical Systems".
- Abstract(参考訳): これは"Asynchronous Distributed Gaussian Process Regression for Online Learning and Dynamical Systems"と題された論文の補完的な文書である。
関連論文リスト
- FedECADO: A Dynamical System Model of Federated Learning [15.425099636035108]
フェデレーション学習は分散最適化の力を活用して、別々のクライアント間で統一された機械学習モデルをトレーニングする。
本研究は,フェデレート学習プロセスの動的システム表現にインスパイアされた新しいアルゴリズムであるFedECADOを提案する。
FedProxやFedNovaといった著名な技術と比較して、FedECADOは多くの異種シナリオにおいて高い分類精度を達成する。
論文 参考訳(メタデータ) (2024-10-13T17:26:43Z) - Iterative Sketching for Secure Coded Regression [66.53950020718021]
分散線形回帰を高速化する手法を提案する。
具体的には、方程式の系の基礎をランダムに回転させ、次にサブサンプルブロックを回転させ、情報を同時に確保し、回帰問題の次元を小さくする。
論文 参考訳(メタデータ) (2023-08-08T11:10:42Z) - Tensor Decompositions Meet Control Theory: Learning General Mixtures of
Linear Dynamical Systems [19.47235707806519]
テンソル分解に基づく線形力学系の混合を学習するための新しいアプローチを提案する。
このアルゴリズムは, 成分の分離条件が強くないまま成功し, 軌道のベイズ最適クラスタリングと競合することができる。
論文 参考訳(メタデータ) (2023-07-13T03:00:01Z) - Reward-agnostic Fine-tuning: Provable Statistical Benefits of Hybrid
Reinforcement Learning [66.43003402281659]
オンラインデータ収集を効率的に活用してオフラインデータセットを強化し補完する方法に、中心的な疑問が浮かび上がっている。
我々は、純粋なオフラインRLと純粋なオンラインRLという、両方の世界のベストを打ち負かす3段階のハイブリッドRLアルゴリズムを設計する。
提案アルゴリズムは,データ収集時に報酬情報を必要としない。
論文 参考訳(メタデータ) (2023-05-17T15:17:23Z) - Continual Learning of Dynamical Systems with Competitive Federated
Reservoir Computing [29.98127520773633]
継続的な学習は、以前の動的体制なしで急激なシステム変更に迅速に適応することを目的としている。
本研究は,連続学習に基づく貯水池計算へのアプローチを提案する。
このマルチヘッド貯水池は、複数の力学系における干渉や忘れを最小化する。
論文 参考訳(メタデータ) (2022-06-27T14:35:50Z) - Structure-Preserving Learning Using Gaussian Processes and Variational
Integrators [62.31425348954686]
本稿では,機械系の古典力学に対する変分積分器と,ガウス過程の回帰による残留力学の学習の組み合わせを提案する。
我々は、既知のキネマティック制約を持つシステムへのアプローチを拡張し、予測の不確実性に関する公式な境界を提供する。
論文 参考訳(メタデータ) (2021-12-10T11:09:29Z) - Device Scheduling and Update Aggregation Policies for Asynchronous
Federated Learning [72.78668894576515]
Federated Learning (FL)は、新しく登場した分散機械学習(ML)フレームワークである。
本稿では,FLシステムにおけるトラグラー問題を排除するために,周期的なアグリゲーションを伴う非同期FLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-23T18:57:08Z) - Using Data Assimilation to Train a Hybrid Forecast System that Combines
Machine-Learning and Knowledge-Based Components [52.77024349608834]
利用可能なデータがノイズの多い部分測定の場合,カオスダイナミクスシステムのデータ支援予測の問題を検討する。
動的システムの状態の部分的測定を用いることで、不完全な知識ベースモデルによる予測を改善するために機械学習モデルを訓練できることを示す。
論文 参考訳(メタデータ) (2021-02-15T19:56:48Z) - Optimizing Convergence for Iterative Learning of ARIMA for Stationary
Time Series [1.9444242128493845]
この研究は、近年ニューラルネットワークの学習に普及した計算コストの低いOnline Gradient Descent最適化方法に焦点を当てている。
異なるオンライングラデーション学習者(Adam、AMSGrad、Adagrad、Nesterovなど)を組み合わせた新しいアプローチを提案し、迅速な収束を実現します。
論文 参考訳(メタデータ) (2021-01-25T12:07:46Z) - Accelerating Feedforward Computation via Parallel Nonlinear Equation
Solving [106.63673243937492]
ニューラルネットワークの評価や自己回帰モデルからのサンプリングなどのフィードフォワード計算は、機械学習においてユビキタスである。
本稿では,非線形方程式の解法としてフィードフォワード計算の課題を定式化し,ジャコビ・ガウス・シーデル固定点法とハイブリッド法を用いて解を求める。
提案手法は, 並列化可能な繰り返し回数の削減(あるいは等値化)により, 元のフィードフォワード計算と全く同じ値が与えられることを保証し, 十分な並列化計算能力を付与する。
論文 参考訳(メタデータ) (2020-02-10T10:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。