論文の概要: BRNES: Enabling Security and Privacy-aware Experience Sharing in
Multiagent Robotic and Autonomous Systems
- arxiv url: http://arxiv.org/abs/2308.01274v1
- Date: Wed, 2 Aug 2023 16:57:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-03 12:12:04.164202
- Title: BRNES: Enabling Security and Privacy-aware Experience Sharing in
Multiagent Robotic and Autonomous Systems
- Title(参考訳): brnes:マルチエージェントロボットと自律システムにおけるセキュリティとプライバシアウェアエクスペリエンス共有の実現
- Authors: Md Tamjid Hossain, Hung Manh La, Shahriar Badsha, and Anton Netchaev
- Abstract要約: 本稿では,各学習ステップにおいて,各アドバイスに対して動的隣接領域を選択する新しいMARLフレームワーク(BRNES)を提案する。
実験の結果,我々のフレームワークは,目標達成までの歩み,報奨,目標達成までの時間において,最先端のフレームワークよりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 0.15749416770494704
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Although experience sharing (ES) accelerates multiagent reinforcement
learning (MARL) in an advisor-advisee framework, attempts to apply ES to
decentralized multiagent systems have so far relied on trusted environments and
overlooked the possibility of adversarial manipulation and inference.
Nevertheless, in a real-world setting, some Byzantine attackers, disguised as
advisors, may provide false advice to the advisee and catastrophically degrade
the overall learning performance. Also, an inference attacker, disguised as an
advisee, may conduct several queries to infer the advisors' private information
and make the entire ES process questionable in terms of privacy leakage. To
address and tackle these issues, we propose a novel MARL framework (BRNES) that
heuristically selects a dynamic neighbor zone for each advisee at each learning
step and adopts a weighted experience aggregation technique to reduce Byzantine
attack impact. Furthermore, to keep the agent's private information safe from
adversarial inference attacks, we leverage the local differential privacy
(LDP)-induced noise during the ES process. Our experiments show that our
framework outperforms the state-of-the-art in terms of the steps to goal,
obtained reward, and time to goal metrics. Particularly, our evaluation shows
that the proposed framework is 8.32x faster than the current non-private
frameworks and 1.41x faster than the private frameworks in an adversarial
setting.
- Abstract(参考訳): 経験共有(ES)は、アドバイザ・アドバイザ・フレームワークにおけるマルチエージェント強化学習(MARL)を促進するが、分散化されたマルチエージェントシステムにESを適用しようとする試みは、これまで信頼された環境に依存しており、敵の操作や推論の可能性を見落としている。
しかし、現実の世界では、助言者に変装したビザンチン人攻撃者が助言者に虚偽の助言を与え、全体的な学習性能を破滅的に低下させる可能性がある。
また、助言者に変装した推論攻撃者は、アドバイザの個人情報を推測し、プライバシー漏洩の観点からESプロセス全体を疑わしいものにするために、いくつかのクエリを実行することができる。
そこで本研究では,学習ステップごとに動的隣接ゾーンをヒューリスティックに選択し,ビザンチン攻撃の影響を軽減するために重み付け経験集約手法を採用する新しいmarlフレームワーク(brnes)を提案する。
さらに,エージェントの個人情報を敵対的推論攻撃から安全に保つため,esプロセス中にldp(local differential privacy)によって引き起こされるノイズを活用する。
実験の結果,我々のフレームワークは,目標達成,報奨,目標達成の時間という観点から,最先端のフレームワークよりも優れていることがわかった。
特に,提案するフレームワークは,現在の非プライベートフレームワークよりも8.32倍,対向的な設定では1.41倍高速であることを示す。
関連論文リスト
- Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Robust Multi-Agent Reinforcement Learning via Adversarial
Regularization: Theoretical Foundation and Stable Algorithms [79.61176746380718]
MARL(Multi-Agent Reinforcement Learning)はいくつかの領域で有望な結果を示している。
MARLポリシーは、しばしば堅牢性を欠き、環境の小さな変化に敏感である。
政策のリプシッツ定数を制御することにより、ロバスト性を得ることができることを示す。
政策のリプシッツ連続性を促進する新しい堅牢なMARLフレームワークであるERNIEを提案する。
論文 参考訳(メタデータ) (2023-10-16T20:14:06Z) - Byzantine-Robust Federated Learning with Variance Reduction and
Differential Privacy [6.343100139647636]
フェデレートラーニング(FL)は、モデルトレーニング中にデータのプライバシを保存するように設計されている。
FLはプライバシー攻撃やビザンツ攻撃に弱い。
本稿では,厳格なプライバシを保証するとともに,ビザンチン攻撃に対するシステムの堅牢性を同時に向上する新しいFLスキームを提案する。
論文 参考訳(メタデータ) (2023-09-07T01:39:02Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Multi-Agent Constrained Policy Optimisation [17.772811770726296]
制約付きマルコフゲームとして安全なMARL問題を定式化し、ポリシー最適化手法を用いて解決する。
マルチエージェント制約付き政策最適化 (MACPO) とMAPPO-ラグランジアン (MAPPO-Lagrangian) は、制約付き政策最適化とマルチエージェント信頼領域学習の両方から理論を利用する。
我々は,様々なMARLベースラインを含むSafe Multi-Agent MuJoCoのベンチマークスイートを開発した。
論文 参考訳(メタデータ) (2021-10-06T14:17:09Z) - Cooperative Multi-Agent Actor-Critic for Privacy-Preserving Load
Scheduling in a Residential Microgrid [71.17179010567123]
本稿では,分散型アクターを分散批評家に教育する,プライバシ保護型マルチエージェントアクター批判フレームワークを提案する。
提案手法は,家庭のプライバシを保護しつつ,暗黙的にマルチエージェントの信用代入メカニズムを学習する。
論文 参考訳(メタデータ) (2021-10-06T14:05:26Z) - Robust Reinforcement Learning on State Observations with Learned Optimal
Adversary [86.0846119254031]
逆摂動状態観測による強化学習の堅牢性について検討した。
固定されたエージェントポリシーでは、摂動状態の観測に最適な敵を見つけることができる。
DRLの設定では、これは以前のものよりもはるかに強い学習された敵対を介してRLエージェントに新しい経験的敵対攻撃につながります。
論文 参考訳(メタデータ) (2021-01-21T05:38:52Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - Federated Recommendation System via Differential Privacy [31.0963615274522]
差分プライバシーに基づくアッパー信頼境界法(UCB)をマルチエージェント環境に適用する方法について検討する。
提案手法のプライバシと後悔性能に関する理論的解析を行った。
論文 参考訳(メタデータ) (2020-05-14T00:00:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。