論文の概要: Locally Private Distributed Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2001.11718v1
- Date: Fri, 31 Jan 2020 09:03:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 06:21:52.183365
- Title: Locally Private Distributed Reinforcement Learning
- Title(参考訳): ローカル・プライベート分散強化学習
- Authors: Hajime Ono and Tsubasa Takahashi
- Abstract要約: 我々は、強化学習のための局所微分プライベートアルゴリズムについて研究する。
提案アルゴリズムでは,ローカルエージェントが環境内のモデルを更新する。
報告されたノイズ勾配のセットを利用することで、中央アグリゲータはそのモデルを更新し、異なるローカルエージェントに配信する。
- 参考スコア(独自算出の注目度): 0.76146285961466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study locally differentially private algorithms for reinforcement learning
to obtain a robust policy that performs well across distributed private
environments. Our algorithm protects the information of local agents' models
from being exploited by adversarial reverse engineering. Since a local policy
is strongly being affected by the individual environment, the output of the
agent may release the private information unconsciously. In our proposed
algorithm, local agents update the model in their environments and report noisy
gradients designed to satisfy local differential privacy (LDP) that gives a
rigorous local privacy guarantee. By utilizing a set of reported noisy
gradients, a central aggregator updates its model and delivers it to different
local agents. In our empirical evaluation, we demonstrate how our method
performs well under LDP. To the best of our knowledge, this is the first work
that actualizes distributed reinforcement learning under LDP. This work enables
us to obtain a robust agent that performs well across distributed private
environments.
- Abstract(参考訳): 本研究では,分散プライベート環境にまたがるロバストなポリシを得るために,強化学習のための局所微分プライベートアルゴリズムについて検討する。
提案アルゴリズムは, エージェントのモデルに関する情報が逆エンジニアリングによって悪用されるのを防ぐ。
ローカルポリシーは個々の環境に強く影響を受けているため、エージェントの出力は無意識に個人情報を放出することができる。
提案アルゴリズムでは, ローカルエージェントが環境内のモデルを更新し, 局所的差分プライバシー(LDP)を満たすように設計されたノイズ勾配を報告し, 厳密な局所的プライバシー保証を実現する。
報告されたノイズ勾配を活用することで、中央アグリゲータはそのモデルを更新し、異なるローカルエージェントに配信する。
実験的な評価では, LDP 下での手法の有効性を実証する。
我々の知る限りでは、分散強化学習を LDP で実現したのはこれが初めてである。
この作業により、分散プライベート環境間でよく機能する堅牢なエージェントが得られます。
関連論文リスト
- Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Preserving Privacy in Federated Learning with Ensemble Cross-Domain
Knowledge Distillation [22.151404603413752]
Federated Learning(FL)は、ローカルノードが中央モデルを協調的にトレーニングする機械学習パラダイムである。
既存のFLメソッドはモデルパラメータを共有したり、不均衡なデータ分散の問題に対処するために共蒸留を用いるのが一般的である。
我々は,一発のオフライン知識蒸留を用いたFLフレームワークにおいて,プライバシ保護と通信効率のよい手法を開発した。
論文 参考訳(メタデータ) (2022-09-10T05:20:31Z) - FedVLN: Privacy-preserving Federated Vision-and-Language Navigation [13.490583662839729]
VLN(Vision-and-Language Navigation)タスクのためのプライバシー保護型エージェント学習を導入する。
私たちは、各住宅環境をローカルクライアントとみなし、クラウドサーバや他のクライアントとローカルアップデート以外の何も共有していません。
本稿では,各クライアントのデータをそのローカルモデルトレーニングに限定する分散トレーニング戦略と,未確認環境に対するモデル一般化性を改善するためのフェデレーション事前探索手法を提案する。
論文 参考訳(メタデータ) (2022-03-28T17:43:35Z) - Cooperative Multi-Agent Actor-Critic for Privacy-Preserving Load
Scheduling in a Residential Microgrid [71.17179010567123]
本稿では,分散型アクターを分散批評家に教育する,プライバシ保護型マルチエージェントアクター批判フレームワークを提案する。
提案手法は,家庭のプライバシを保護しつつ,暗黙的にマルチエージェントの信用代入メカニズムを学習する。
論文 参考訳(メタデータ) (2021-10-06T14:05:26Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - Representation Learning for High-Dimensional Data Collection under Local
Differential Privacy [18.98782927283319]
ローカルディファレンシャルプライバシ(LDP)は、プライバシを保護するための厳格なアプローチを提供する。
既存のLPP機構は低次元データに適用されている。
高次元において、プライバシを誘発するノイズは、データの有用性を大きく損なう。
論文 参考訳(メタデータ) (2020-10-23T15:01:19Z) - How to Democratise and Protect AI: Fair and Differentially Private
Decentralised Deep Learning [43.73144358534933]
我々はFDPDDLと呼ばれる公平で差別的な分散型ディープラーニングフレームワークを構築している。
これにより、公正かつプライベートな方法で、より正確なローカルモデルを導出することができる。
FDPDDLは高い公正性を達成し、中央集権および分散フレームワークに匹敵する精度を示し、スタンドアロンフレームワークよりも優れた精度を提供する。
論文 参考訳(メタデータ) (2020-07-18T09:06:10Z) - Decentralised Learning from Independent Multi-Domain Labels for Person
Re-Identification [69.29602103582782]
ディープラーニングは多くのコンピュータビジョンタスクで成功している。
しかし、プライバシー問題に対する意識の高まりは、特に人物の再識別(Re-ID)において、ディープラーニングに新たな課題をもたらす。
我々は,複数のプライバシ保護されたローカルモデル(ローカルクライアント)を同時に学習することにより,汎用的なグローバルモデル(中央サーバ)を構築するための,フェデレート・パーソナライゼーション(FedReID)と呼ばれる新しいパラダイムを提案する。
このクライアントサーバ共同学習プロセスは、プライバシコントロールの下で反復的に実行されるため、分散データを共有したり、収集したりすることなく、分散学習を実現することができる。
論文 参考訳(メタデータ) (2020-06-07T13:32:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。