論文の概要: Byzantine-resilient federated online learning for Gaussian process regression
- arxiv url: http://arxiv.org/abs/2507.14021v1
- Date: Fri, 18 Jul 2025 15:39:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.342047
- Title: Byzantine-resilient federated online learning for Gaussian process regression
- Title(参考訳): ガウス過程回帰のためのビザンチンレジリエント・フェデレーションオンライン学習
- Authors: Xu Zhang, Zhenyuan Yuan, Minghui Zhu,
- Abstract要約: 我々は,クラウドとエージェント群が協調して潜在関数を学習することのできる,ビザンチン耐性の連邦化GPRアルゴリズムを開発した。
エージェントベース融合GPRは、受信したグローバルモデルをエージェントベースローカルGPRと融合することにより、局所的な予測を洗練させる。
エージェントベース局所GPRに対するエージェントベース融合GPRの学習精度の改善を定量化する。
- 参考スコア(独自算出の注目度): 10.8159638645264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study Byzantine-resilient federated online learning for Gaussian process regression (GPR). We develop a Byzantine-resilient federated GPR algorithm that allows a cloud and a group of agents to collaboratively learn a latent function and improve the learning performances where some agents exhibit Byzantine failures, i.e., arbitrary and potentially adversarial behavior. Each agent-based local GPR sends potentially compromised local predictions to the cloud, and the cloud-based aggregated GPR computes a global model by a Byzantine-resilient product of experts aggregation rule. Then the cloud broadcasts the current global model to all the agents. Agent-based fused GPR refines local predictions by fusing the received global model with that of the agent-based local GPR. Moreover, we quantify the learning accuracy improvements of the agent-based fused GPR over the agent-based local GPR. Experiments on a toy example and two medium-scale real-world datasets are conducted to demonstrate the performances of the proposed algorithm.
- Abstract(参考訳): 本稿では,ガウス過程回帰(GPR)のためのビザンチン耐性オンライン学習について検討する。
我々は、クラウドとエージェントのグループが協調して潜在関数を学習し、一部のエージェントがビザンチン障害、すなわち任意かつ潜在的に敵対的な振る舞いを示す学習性能を向上させることができる、ビザンチン耐性の連邦化GPRアルゴリズムを開発した。
各エージェントベースのローカルGPRは、潜在的に妥協されたローカル予測をクラウドに送信し、クラウドベースの集約GPRは、エキスパートアグリゲーションルールのビザンチン耐性製品によってグローバルモデルを計算する。
そしてクラウドは、現在のグローバルモデルをすべてのエージェントにブロードキャストする。
エージェントベース融合GPRは、受信したグローバルモデルをエージェントベースローカルGPRと融合することにより、局所的な予測を洗練させる。
さらに,エージェントベース局所GPRに対するエージェントベース融合GPRの学習精度の向上を定量化する。
おもちゃの例と2つの中規模の実世界のデータセットを用いて,提案アルゴリズムの性能を実証する実験を行った。
関連論文リスト
- Linguistic Fuzzy Information Evolution with Random Leader Election Mechanism for Decision-Making Systems [58.67035332062508]
言語ファジィ情報進化はエージェント間の情報交換を理解する上で重要である。
エージェントの重みの違いは、古典的なDeGrootモデルにおいて異なる収束結果をもたらす可能性がある。
本稿では,言語ファジィ情報力学の新しい3つのモデルを提案する。
論文 参考訳(メタデータ) (2024-10-19T18:15:24Z) - Beyond Local Views: Global State Inference with Diffusion Models for Cooperative Multi-Agent Reinforcement Learning [36.25611963252774]
拡散モデルによる状態推論(SIDIFF)は、画像の露光にインスパイアされている。
SIDIFFは、ローカルな観測のみに基づいて、元のグローバルステートを再構築する。
現在のマルチエージェント強化学習アルゴリズムに無理に組み込むことができる。
論文 参考訳(メタデータ) (2024-08-18T14:49:53Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Federated Learning as Variational Inference: A Scalable Expectation
Propagation Approach [66.9033666087719]
本稿では,推論の視点を拡張し,フェデレート学習の変分推論の定式化について述べる。
我々は、FedEPを標準フェデレーション学習ベンチマークに適用し、収束速度と精度の両方において、強いベースラインを上回ります。
論文 参考訳(メタデータ) (2023-02-08T17:58:11Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - Locally Smoothed Gaussian Process Regression [11.45660271015251]
我々はガウス過程回帰(GPR)を加速する新しい枠組みを開発する。
特に、各データポイントにおけるローカライゼーションカーネルは、遠く離れた他のデータポイントからのコントリビューションを低くするために検討する。
提案手法の競合性能をGPR, その他の局所モデル, 深いガウス過程と比較した。
論文 参考訳(メタデータ) (2022-10-18T17:04:35Z) - Federated Stochastic Approximation under Markov Noise and Heterogeneity: Applications in Reinforcement Learning [24.567125948995834]
フェデレーション強化学習は、N$エージェントが協力してグローバルモデルを学ぶためのフレームワークである。
この連立固定点問題の解法において, エージェントの綿密な協調によって, グローバルモデルのN$倍の高速化が期待できることを示す。
論文 参考訳(メタデータ) (2022-06-21T08:39:12Z) - Multi-model Ensemble Analysis with Neural Network Gaussian Processes [5.975698284186638]
マルチモデルアンサンブル解析は、複数の気候モデルからの情報を統一された射影に統合する。
我々は,ディープニューラルネットワークに基づく共分散関数を用いて,NN-GPRと呼ばれる統計的アプローチを提案する。
実験により,NN-GPRは地表温度と降水量予測に非常に熟練していることが示された。
論文 参考訳(メタデータ) (2022-02-08T21:28:03Z) - Lightweight Distributed Gaussian Process Regression for Online Machine
Learning [2.0305676256390934]
エージェントのグループは、ストリーミングデータを通じて共通の静的潜伏関数を協調的に学習することを目指している。
本稿では,通信,計算,メモリにおけるエージェントの限られた能力を認識する軽量分散ガウスプロセス回帰(GPR)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-11T01:13:22Z) - Distributed Q-Learning with State Tracking for Multi-agent Networked
Control [61.63442612938345]
本稿では,LQR(Linear Quadratic Regulator)のマルチエージェントネットワークにおける分散Q-ラーニングについて検討する。
エージェントに最適なコントローラを設計するための状態追跡(ST)ベースのQ-ラーニングアルゴリズムを考案する。
論文 参考訳(メタデータ) (2020-12-22T22:03:49Z) - Model-based Reinforcement Learning for Decentralized Multiagent
Rendezvous [66.6895109554163]
目標を他のエージェントと整合させる人間の能力の下にあるのは、他人の意図を予測し、自分たちの計画を積極的に更新する能力である。
分散型マルチエージェントレンデブーのためのモデルに基づく強化学習手法である階層型予測計画(HPP)を提案する。
論文 参考訳(メタデータ) (2020-03-15T19:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。