論文の概要: A Spatially Informed Gaussian Process UCB Method for Decentralized Coverage Control
- arxiv url: http://arxiv.org/abs/2511.02398v1
- Date: Tue, 04 Nov 2025 09:23:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.871395
- Title: A Spatially Informed Gaussian Process UCB Method for Decentralized Coverage Control
- Title(参考訳): 分散被覆制御のための空間インフォームドガウス過程UPB法
- Authors: Gennaro Guidone, Luca Monegaglia, Elia Raimondi, Han Wang, Mattia Bianchi, Florian Dörfler,
- Abstract要約: ガウス過程(GP)をモデルとした未知空間環境におけるカバレッジ制御のための新しい分散アルゴリズムを提案する。
探索と搾取のトレードオフを行うため、各エージェントは、局所的なコスト関数を最小化して、その軌道を自律的に決定する。
GP-UCB (Upper Confidence Bound for GPs) 取得関数にインスパイアされた提案コストは,予測密度とモデル不確実性の両方の高い領域への誘導エージェントとして,予測位置コストと分散に基づく探索項を組み合わせたものである。
- 参考スコア(独自算出の注目度): 5.580557800052841
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel decentralized algorithm for coverage control in unknown spatial environments modeled by Gaussian Processes (GPs). To trade-off between exploration and exploitation, each agent autonomously determines its trajectory by minimizing a local cost function. Inspired by the GP-UCB (Upper Confidence Bound for GPs) acquisition function, the proposed cost combines the expected locational cost with a variance-based exploration term, guiding agents toward regions that are both high in predicted density and model uncertainty. Compared to previous work, our algorithm operates in a fully decentralized fashion, relying only on local observations and communication with neighboring agents. In particular, agents periodically update their inducing points using a greedy selection strategy, enabling scalable online GP updates. We demonstrate the effectiveness of our algorithm in simulation.
- Abstract(参考訳): 本稿では,ガウス過程(GP)によってモデル化された未知空間環境におけるカバレッジ制御のための新しい分散アルゴリズムを提案する。
探索と搾取のトレードオフを行うため、各エージェントは、局所的なコスト関数を最小化して、その軌道を自律的に決定する。
GP-UCB (Upper Confidence Bound for GPs) 取得関数にインスパイアされた提案コストは,予測密度とモデル不確実性の両方の高い領域への誘導エージェントとして,予測位置コストと分散に基づく探索項を組み合わせたものである。
従来の研究と比較して,我々のアルゴリズムは,局所的な観測と近隣エージェントとの通信にのみ依存して,完全に分散された方法で動作している。
特にエージェントは、greedy選択戦略を使用してインジェクションポイントを定期的に更新し、スケーラブルなオンラインGP更新を可能にする。
シミュレーションにおけるアルゴリズムの有効性を実証する。
関連論文リスト
- Decentralized Differentially Private Power Method [4.58112062523768]
ネットワーク化されたマルチエージェント設定において主成分分析(PCA)を行うための分散分散微分プライベート・パワー・メソッド(D-DP-PM)を提案する。
本手法は,ネットワーク全体の固有ベクトルを協調的に推定しながら,$(epsilon,delta)$-Differential Privacy (DP)を保証する。
実世界のデータセット実験により、D-DP-PMは、単純で局所的なDPアプローチに比べて、優れたプライバシーとユーティリティのトレードオフを実現することが示された。
論文 参考訳(メタデータ) (2025-07-30T17:15:50Z) - Computing entanglement costs of non-local operations on the basis of algebraic geometry [0.0]
分離可能な(SEP)チャネルに対する最適化を体系的に単純化するフレームワークを開発する。
本フレームワークは,SEPチャネル下での非ローカル操作の実装において,ワンショットの絡み合いコストの計算に応用する。
論文 参考訳(メタデータ) (2025-01-29T03:16:30Z) - Stability and Generalization for Distributed SGDA [70.97400503482353]
分散SGDAのための安定性に基づく一般化分析フレームワークを提案する。
我々は, 安定性の誤差, 一般化ギャップ, 人口リスクの包括的分析を行う。
理論的結果から,一般化ギャップと最適化誤差のトレードオフが明らかになった。
論文 参考訳(メタデータ) (2024-11-14T11:16:32Z) - Networked Communication for Mean-Field Games with Function Approximation and Empirical Mean-Field Estimation [59.01527054553122]
分散エージェントは、経験的システムの非絶対的実行から平均フィールドゲームにおいて平衡を学ぶことができる。
既存の設定に関数近似を導入し,Munchausen Online Mirror Descent 方式で描画する。
ポリシー情報の交換は,ネットワーク化されたエージェントが,機能近似設定において,独立エージェントと集中エージェントの両方より優れていることを示す。
論文 参考訳(メタデータ) (2024-08-21T13:32:46Z) - Order-Optimal Regret in Distributed Kernel Bandits using Uniform
Sampling with Shared Randomness [9.731329071569018]
我々はN$エージェントが未知の報酬関数を協調的に最大化する分散カーネルの帯域を考える。
我々は,通信コストが$N$と$T$に比例する,最適な後悔順序を達成するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-02-20T17:49:10Z) - Distributed Optimization via Kernelized Multi-armed Bandits [6.04275169308491]
分散最適化問題を異種報酬設定によるマルチエージェントカーネル化されたマルチアームバンディット問題としてモデル化する。
我々は,カーネルの一般的なクラスに対して,サブ線形なリフレッシュバウンドを実現するために,完全に分散化されたアルゴリズムであるマルチエージェントIGP-UCB(MA-IGP-UCB)を提案する。
また,Multi-agent Delayed IGP-UCB (MAD-IGP-UCB)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-07T21:57:48Z) - Energy-Guided Continuous Entropic Barycenter Estimation for General Costs [95.33926437521046]
任意のOTコスト関数に対して連続的エントロピーOT(EOT)バリセンタを近似する新しいアルゴリズムを提案する。
本手法は、弱いOTに基づくEOT問題の二重再構成に基づいている。
論文 参考訳(メタデータ) (2023-10-02T11:24:36Z) - Distributed Stochastic Bandit Learning with Context Distributions [0.0]
本研究では,未知のコンテキストを持つ分散マルチアームコンテキスト帯域幅の問題について検討する。
本モデルでは, エージェントはコンテキスト分布のみを観察し, エージェントに正確なコンテキストが不明である。
我々のゴールは、累積報酬を最大化するために最適な行動列を選択する分散アルゴリズムを開発することである。
論文 参考訳(メタデータ) (2022-07-28T22:00:11Z) - On Reward-Free RL with Kernel and Neural Function Approximations:
Single-Agent MDP and Markov Game [140.19656665344917]
エージェントが事前に特定された報酬関数を使わずに環境を徹底的に探索することを目的とした報酬のないRL問題について検討する。
関数近似の文脈でこの問題に取り組み、強力な関数近似器を活用する。
我々は、カーネルとニューラルファンクション近似器を用いた、証明可能な効率の良い報酬なしRLアルゴリズムを確立した。
論文 参考訳(メタデータ) (2021-10-19T07:26:33Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - Decentralized MCTS via Learned Teammate Models [89.24858306636816]
本稿では,モンテカルロ木探索に基づくトレーニング可能なオンライン分散計画アルゴリズムを提案する。
深層学習と畳み込みニューラルネットワークを用いて正確なポリシー近似を作成可能であることを示す。
論文 参考訳(メタデータ) (2020-03-19T13:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。