論文の概要: Differential Privacy in Cooperative Multiagent Planning
- arxiv url: http://arxiv.org/abs/2301.08811v1
- Date: Fri, 20 Jan 2023 21:36:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 16:27:17.317202
- Title: Differential Privacy in Cooperative Multiagent Planning
- Title(参考訳): 協調マルチエージェント計画における差分プライバシー
- Authors: Bo Chen and Calvin Hawkins and Mustafa O. Karabag and Cyrus Neary and
Matthew Hale and Ufuk Topcu
- Abstract要約: 我々は,到達不能な目的を持つマルコフゲームとして定式化された逐次決定問題について検討する。
エージェントの通信されたシンボル状態軌跡を民営化するために,差分プライバシー機構を適用した。
相関関係の価値を下げることにより、プライバシーに堅牢なポリシーを合成する。
- 参考スコア(独自算出の注目度): 27.194032494266086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy-aware multiagent systems must protect agents' sensitive data while
simultaneously ensuring that agents accomplish their shared objectives. Towards
this goal, we propose a framework to privatize inter-agent communications in
cooperative multiagent decision-making problems. We study sequential
decision-making problems formulated as cooperative Markov games with
reach-avoid objectives. We apply a differential privacy mechanism to privatize
agents' communicated symbolic state trajectories, and then we analyze tradeoffs
between the strength of privacy and the team's performance. For a given level
of privacy, this tradeoff is shown to depend critically upon the total
correlation among agents' state-action processes. We synthesize policies that
are robust to privacy by reducing the value of the total correlation. Numerical
experiments demonstrate that the team's performance under these policies
decreases by only 3 percent when comparing private versus non-private
implementations of communication. By contrast, the team's performance decreases
by roughly 86 percent when using baseline policies that ignore total
correlation and only optimize team performance.
- Abstract(参考訳): プライバシを意識したマルチエージェントシステムは、エージェントの機密データを保護すると同時に、エージェントが共通の目的を達成することを保証する必要がある。
この目的に向けて,共同マルチエージェント意思決定問題において,エージェント間コミュニケーションを民営化する枠組みを提案する。
我々は,到達回避目標を持つ協調マルコフゲームとして定式化された逐次意思決定問題について検討する。
我々は,エージェントの伝達する象徴的状態軌跡を民営化するために差分プライバシー機構を適用し,プライバシの強さとチームのパフォーマンスのトレードオフを分析する。
あるレベルのプライバシに関して、このトレードオフはエージェントの状態-アクションプロセス間の全体的相関に依存することが示されている。
相関関係の価値を下げることにより、プライバシーに堅牢なポリシーを合成する。
数値実験により、これらのポリシーの下でのチームのパフォーマンスは、プライベートと非プライベートのコミュニケーション実装を比較すると、わずか3%低下することがわかった。
対照的に、全体の相関を無視し、チームのパフォーマンスのみを最適化するベースラインポリシーを使用する場合、チームのパフォーマンスはおよそ86%低下する。
関連論文リスト
- Group Decision-Making among Privacy-Aware Agents [2.4401219403555814]
個人のプライバシーを維持し、効果的な社会学習を可能にすることはどちらも重要なデシダータであるが、基本的には互いに相反しているように見える。
差分プライバシー(DP)に基づく厳密な統計的保証を用いて情報漏洩を制御する。
その結果,グループ意思決定の結果の質,学習精度,通信コスト,エージェントが備えているプライバシー保護の水準の両面でのトレードオフの性質が明らかになった。
論文 参考訳(メタデータ) (2024-02-13T01:38:01Z) - Privacy-Engineered Value Decomposition Networks for Cooperative
Multi-Agent Reinforcement Learning [19.504842607744457]
協力的マルチエージェント強化学習では、エージェントのチームは、指定されたタスクを学ぶために、チームの長期的な報酬を共同で最適化する必要がある。
プライバシエンジニアリングされた価値分解ネットワーク(PE-VDN)は、エージェントの環境相互作用データの機密性を保護しながら、マルチエージェント調整をモデル化する。
我々は,StarCraft Multi-Agent Competition (SMAC) にPE-VDNを実装し,バニラVDNの勝利率の80%を達成することを示す。
論文 参考訳(メタデータ) (2023-09-13T02:50:57Z) - DPMAC: Differentially Private Communication for Cooperative Multi-Agent
Reinforcement Learning [21.961558461211165]
コミュニケーションは、人間社会とマルチエージェント強化学習(MARL)における協力の基礎となる。
本稿では,各エージェントに厳密な$(epsilon, delta)$-differential privacy guaranteeを付与したローカルメッセージ送信装置を装備することにより,個々のエージェントのセンシティブな情報を保護できる,テキスト・ディペンデンシャル・プライベート・マルチエージェント・コミュニケーション(DPMAC)アルゴリズムを提案する。
我々は、プライバシ保護通信と協調的なMARLにおけるナッシュ均衡の存在を証明し、この問題がゲーム理論的に学習可能であることを示唆する。
論文 参考訳(メタデータ) (2023-08-19T04:26:23Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Privacy-Preserving Joint Edge Association and Power Optimization for the
Internet of Vehicles via Federated Multi-Agent Reinforcement Learning [74.53077322713548]
プライバシ保護型共同エッジアソシエーションと電力配分問題について検討する。
提案されたソリューションは、最先端のソリューションよりも高いプライバシレベルを維持しながら、魅力的なトレードオフにぶつかる。
論文 参考訳(メタデータ) (2023-01-26T10:09:23Z) - Cooperative Actor-Critic via TD Error Aggregation [12.211031907519827]
本稿では、プライバシー問題に違反しないTDエラーアグリゲーションを備えた分散型アクター批判アルゴリズムを提案する。
我々は,各エージェントが平均目標関数を最大化するために,ステップサイズを小さくして収束解析を行う。
論文 参考訳(メタデータ) (2022-07-25T21:10:39Z) - Distributed Adaptive Learning Under Communication Constraints [54.22472738551687]
本研究では,コミュニケーション制約下での運用を目的とした適応型分散学習戦略について検討する。
我々は,ストリーミングデータの連続的な観察から,オンライン最適化問題を解決しなければならないエージェントのネットワークを考える。
論文 参考訳(メタデータ) (2021-12-03T19:23:48Z) - Cooperative Multi-Agent Actor-Critic for Privacy-Preserving Load
Scheduling in a Residential Microgrid [71.17179010567123]
本稿では,分散型アクターを分散批評家に教育する,プライバシ保護型マルチエージェントアクター批判フレームワークを提案する。
提案手法は,家庭のプライバシを保護しつつ,暗黙的にマルチエージェントの信用代入メカニズムを学習する。
論文 参考訳(メタデータ) (2021-10-06T14:05:26Z) - Partial Disclosure of Private Dependencies in Privacy Preserving
Planning [0.0]
共同プライバシー保護計画では、エージェントのグループが共同で一連の目標を達成するために計画を作成します。
CPPPでの以前の作業は、そのような依存関係の開示を制限しません。
公開依存関係の量を明示的に制限し、エージェントがプライベート依存関係の一部だけを公開できるようにします。
論文 参考訳(メタデータ) (2021-02-14T16:10:08Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Differentially Private Multi-Agent Planning for Logistic-like Problems [70.3758644421664]
本稿では,ロジスティックな問題に対する強力なプライバシ保護計画手法を提案する。
1) 強いプライバシー、完全性、効率性、2) 通信制約に対処する2つの課題に対処する。
我々の知る限り、マルチエージェントプランニングの分野に差分プライバシーを適用したのは、この論文が初めてである。
論文 参考訳(メタデータ) (2020-08-16T03:43:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。