論文の概要: Slow Convergence of Interacting Kalman Filters in Word-of-Mouth Social Learning
- arxiv url: http://arxiv.org/abs/2410.08447v1
- Date: Fri, 11 Oct 2024 01:30:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 03:16:22.914107
- Title: Slow Convergence of Interacting Kalman Filters in Word-of-Mouth Social Learning
- Title(参考訳): 単語・オブ・ムート社会学習における相互作用するカルマンフィルタの低収束性
- Authors: Vikram Krishnamurthy, Cristian Rojas,
- Abstract要約: 我々は、連続的に動作するカルマンフィルタエージェントを$m$で提供する、口語ソーシャルラーニングについて検討する。
その結果, 学習速度を1回に1k-1$と最適に設定できることがわかった。
- 参考スコア(独自算出の注目度): 13.440621354486906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider word-of-mouth social learning involving $m$ Kalman filter agents that operate sequentially. The first Kalman filter receives the raw observations, while each subsequent Kalman filter receives a noisy measurement of the conditional mean of the previous Kalman filter. The prior is updated by the $m$-th Kalman filter. When $m=2$, and the observations are noisy measurements of a Gaussian random variable, the covariance goes to zero as $k^{-1/3}$ for $k$ observations, instead of $O(k^{-1})$ in the standard Kalman filter. In this paper we prove that for $m$ agents, the covariance decreases to zero as $k^{-(2^m-1)}$, i.e, the learning slows down exponentially with the number of agents. We also show that by artificially weighing the prior at each time, the learning rate can be made optimal as $k^{-1}$. The implication is that in word-of-mouth social learning, artificially re-weighing the prior can yield the optimal learning rate.
- Abstract(参考訳): 我々は、連続的に動作するカルマンフィルタエージェントを$m$で提供する、口語ソーシャルラーニングについて検討する。
第1カルマンフィルタは生の観測を受け、その後の各カルマンフィルタは前のカルマンフィルタの条件平均のノイズ測定を受ける。
前者は$m$-th Kalmanフィルタによって更新される。
m=2$と観測値がガウス確率変数のノイズのある測度であるとき、共分散は標準カルマンフィルタの$O(k^{-1})$の代わりに$k$観測に対して$k^{-1/3}$としてゼロとなる。
本稿では、$m$エージェントの場合、共分散は$k^{-(2^m-1)}$としてゼロに減少し、つまり、エージェントの数とともに学習が指数関数的に遅くなることを示す。
また, 学習速度をk^{-1}$とすることで, 学習速度を最大化できることを示す。
意味するところは、口語社会学習において、人為的に前者を振り返れば、最適な学習率が得られるということである。
関連論文リスト
- Tensor network square root Kalman filter for online Gaussian process regression [5.482420806459269]
テンソルネットワークの平方根カルマンフィルタを初めて開発し,それを高次元オンラインガウス過程回帰に適用する。
実験では,本手法がフルランクテンソルネットワークを選択する場合,従来のカルマンフィルタと等価であることを示す。
また,本手法を実生活システム識別問題に適用し,標準ラップトップ上で414ドルのパラメータを推定する。
論文 参考訳(メタデータ) (2024-09-05T06:38:27Z) - Improved Algorithm for Adversarial Linear Mixture MDPs with Bandit
Feedback and Unknown Transition [71.33787410075577]
線形関数近似,未知遷移,および逆損失を用いた強化学習について検討した。
我々は高い確率で$widetildeO(dsqrtHS3K + sqrtHSAK)$ regretを実現する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-07T15:03:50Z) - An adaptive ensemble filter for heavy-tailed distributions: tuning-free
inflation and localization [0.3749861135832072]
重尾は、非線形力学および観察過程から生じる分布をフィルタリングする一般的な特徴である。
本研究では,各状態と観測値の同時予測分布のサンプルから,前から後への更新を推定するアルゴリズムを提案する。
本稿では,新しいアンサンブルフィルタの利点について述べる。
論文 参考訳(メタデータ) (2023-10-12T21:56:14Z) - Multiparticle Kalman filter for object localization in symmetric
environments [69.81996031777717]
ローカライズ問題を解決するためによく知られたフィルタリングアルゴリズムのクラスは、カルマンフィルタ法と粒子フィルタ法である。
これらのクラスを考察し、それらの相補的性質を実証し、2つのクラスから最良となる新しいフィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-14T13:31:43Z) - Sharper Convergence Guarantees for Asynchronous SGD for Distributed and
Federated Learning [77.22019100456595]
通信周波数の異なる分散計算作業者のトレーニングアルゴリズムを示す。
本研究では,より厳密な収束率を$mathcalO!!(sigma2-2_avg!)とする。
また,不均一性の項は,作業者の平均遅延によっても影響されることを示した。
論文 参考訳(メタデータ) (2022-06-16T17:10:57Z) - An Improved Analysis of Gradient Tracking for Decentralized Machine
Learning [34.144764431505486]
トレーニングデータが$n$エージェントに分散されるネットワーク上での分散機械学習を検討する。
エージェントの共通の目標は、すべての局所損失関数の平均を最小化するモデルを見つけることである。
ノイズのない場合、$p$を$mathcalO(p-1)$から$mathcalO(p-1)$に改善します。
論文 参考訳(メタデータ) (2022-02-08T12:58:14Z) - Neural Kalman Filtering [62.997667081978825]
カルマンフィルタの勾配差近似は,差分重み付き予測誤差を持つ局所計算のみを必要とすることを示す。
また、同じスキームの下では、ヘビアン可塑性に直接対応する学習規則で動的モデルを適応的に学習することが可能であることを示す。
論文 参考訳(メタデータ) (2021-02-19T16:43:15Z) - Conditional Uncorrelation and Efficient Non-approximate Subset Selection
in Sparse Regression [72.84177488527398]
相関性の観点からスパース回帰を考察し,条件付き非相関式を提案する。
提案手法により、計算複雑性は、スパース回帰における各候補部分集合に対して$O(frac16k3+mk2+mkd)$から$O(frac16k3+frac12mk2)$に削減される。
論文 参考訳(メタデータ) (2020-09-08T20:32:26Z) - Convergence of Langevin Monte Carlo in Chi-Squared and Renyi Divergence [8.873449722727026]
推定値である$widetildemathcalO(depsilon-1)$が,これらの測定値の既知レートを改善することを示す。
特に凸および1次滑らかなポテンシャルについて、LCCアルゴリズムは、これらの測定値の既知率を改善するために$widetildemathcalO(depsilon-1)$を推定する。
論文 参考訳(メタデータ) (2020-07-22T18:18:28Z) - Learning Near Optimal Policies with Low Inherent Bellman Error [115.16037976819331]
エピソード強化学習における近似線形作用値関数を用いた探索問題について検討する。
我々は,検討した設定に対して最適な統計率を達成するアルゴリズムを用いて,Emphbatch仮定のみを用いて探索を行うことが可能であることを示す。
論文 参考訳(メタデータ) (2020-02-29T02:02:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。