論文の概要: Personalized Federated Hypernetworks for Privacy Preservation in
Multi-Task Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2210.06820v1
- Date: Thu, 13 Oct 2022 08:11:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 15:06:07.152802
- Title: Personalized Federated Hypernetworks for Privacy Preservation in
Multi-Task Reinforcement Learning
- Title(参考訳): マルチタスク強化学習におけるプライバシ保護のための個人化フェデレーションハイパーネット
- Authors: Doseok Jang, Larry Yan, Lucas Spangher, Costas J. Spanos, Selvaprabu
Nadarajah
- Abstract要約: 我々はPersonalized Federated Hypernetworks(PFH)の強化学習(RL)への最初の応用を開発した。
PFHは教師付き学習ベンチマーク以上には実証されていないので、PFHを重要な領域、すなわちエネルギー需要応答に対するRL価格設定に適用する。
エージェントが複数のマイクログリッドにまたがって分割される場合、各マイクログリッド内でエネルギー消費データをプライベートにしておく必要がある。
- 参考スコア(独自算出の注目度): 5.437048656214117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-Agent Reinforcement Learning currently focuses on implementations where
all data and training can be centralized to one machine. But what if local
agents are split across multiple tasks, and need to keep data private between
each? We develop the first application of Personalized Federated Hypernetworks
(PFH) to Reinforcement Learning (RL). We then present a novel application of
PFH to few-shot transfer, and demonstrate significant initial increases in
learning. PFH has never been demonstrated beyond supervised learning
benchmarks, so we apply PFH to an important domain: RL price-setting for energy
demand response. We consider a general case across where agents are split
across multiple microgrids, wherein energy consumption data must be kept
private within each microgrid. Together, our work explores how the fields of
personalized federated learning and RL can come together to make learning
efficient across multiple tasks while keeping data secure.
- Abstract(参考訳): マルチエージェント強化学習は現在、すべてのデータとトレーニングをひとつのマシンに集約できる実装にフォーカスしている。
しかし、ローカルエージェントが複数のタスクに分割され、各タスク間でデータをプライベートにしておく必要がある場合はどうでしょう?
我々はPersonalized Federated Hypernetworks (PFH) のReinforcement Learning (RL) への最初の応用を開発した。
次に, pfhの少人数転校への新しい応用例を示し, 学習の著しい初期増加を示す。
PFHは教師付き学習ベンチマーク以上には実証されていないので、PFHを重要な領域、すなわちエネルギー需要応答に対するRL価格設定に適用する。
エージェントが複数のマイクログリッドにまたがって分割される場合、各マイクログリッド内でエネルギー消費データをプライベートにしておく必要がある。
我々の研究は、パーソナライズド・フェデレーション・ラーニングとRLの分野が、データを安全に保ちながら、複数のタスクをまたいだ学習を効果的にするためにどのように連携するかを探るものである。
関連論文リスト
- On the Linear Speedup of Personalized Federated Reinforcement Learning with Shared Representations [15.549340968605234]
フェデレート強化学習(FedRL)は、エージェントと環境相互作用の間に収集された局所的な軌跡を共有することなく、複数のエージェントが協調的にポリシーを学ぶことを可能にする。
異種環境におけるエージェント間の共通構造を生かし, 共生型FedRLフレームワーク(PFedRL)を導入する。
論文 参考訳(メタデータ) (2024-11-22T15:42:43Z) - Learning From Good Trajectories in Offline Multi-Agent Reinforcement
Learning [98.07495732562654]
オフラインマルチエージェント強化学習(MARL)は、事前コンパイルされたデータセットから効果的なマルチエージェントポリシーを学ぶことを目的としている。
オフラインのMARLが学んだエージェントは、しばしばこのランダムなポリシーを継承し、チーム全体のパフォーマンスを脅かす。
この問題に対処するために,共有個人軌道(SIT)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-28T18:11:26Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - GPPF: A General Perception Pre-training Framework via Sparsely Activated
Multi-Task Learning [23.15735672234869]
本稿では,タスクレベルの動的ネットワークを事前学習するための一般知覚事前学習フレームワークであるGPPFを提案する。
複雑な環境で学習する能力を調べることによって、3つの重要な要素を深層ネットワークに認識し、伝達する。
SIMT (Single Iteration Multiple Tasks) の同時学習を支援するプラグイン・アンド・プレイ型マルチタスク学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-08-03T15:34:35Z) - Multi-Task and Transfer Learning for Federated Learning Applications [5.224306534441244]
フェデレートされた学習により、多くの潜在的なデータ保持クライアントの分散データセットとプライベートデータセットの恩恵を受けることができる。
我々は、入力に近く、よりパーソナライズされたレイヤを出力に近づけたディープニューラルネットワークモデルをトレーニングすることを提案する。
メタラーニングに基づくフェデレーション学習が有用であることが証明された特定のシナリオを強調するためのシミュレーション結果を提供する。
論文 参考訳(メタデータ) (2022-07-17T11:48:11Z) - DQRE-SCnet: A novel hybrid approach for selecting users in Federated
Learning with Deep-Q-Reinforcement Learning based on Spectral Clustering [1.174402845822043]
実世界の機密データに基づく機械学習モデルは、医療スクリーニングから病気の発生、農業、産業、防衛科学など幅広い分野で進歩している。
多くのアプリケーションにおいて、学習参加者のコミュニケーションラウンドは、独自のプライベートデータセットを収集し、実際のデータに対して詳細な機械学習モデルを教え、これらのモデルを使用することの利点を共有することの恩恵を受ける。
既存のプライバシとセキュリティ上の懸念から、ほとんどの人はトレーニング用の機密データ共有を回避している。各ユーザがローカルデータを中央サーバにデモしない限り、フェデレートラーニングは、さまざまなパーティが共用データ上で機械学習アルゴリズムをトレーニングすることを可能にする。
論文 参考訳(メタデータ) (2021-11-07T15:14:29Z) - Conservative Data Sharing for Multi-Task Offline Reinforcement Learning [119.85598717477016]
オフラインRLの自然なユースケースは、さまざまなシナリオで収集された大量のデータをプールして、さまざまなタスクを解決できるような設定にある、と私たちは主張する。
タスク固有のデータに対する改善に基づいてデータをルーティングするマルチタスクオフラインRLにおけるデータ共有手法を開発した。
論文 参考訳(メタデータ) (2021-09-16T17:34:06Z) - Private Multi-Task Learning: Formulation and Applications to Federated
Learning [44.60519521554582]
マルチタスク学習は、ヘルスケア、ファイナンス、IoTコンピューティングなどの分野において、プライバシに敏感なアプリケーションに関係している。
我々は,MTLにおけるクライアントレベルのプライバシの概念を,共同微分プライバシ(JDP),メカニズム設計と分散最適化のための微分プライバシの緩和を通じて形式化する。
そこで我々は,パーソナライズド・フェデレーション・ラーニングの応用を目的とした,平均正規化MLLのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-30T03:37:36Z) - Multi-modal AsynDGAN: Learn From Distributed Medical Image Data without
Sharing Private Information [55.866673486753115]
プライバシーとセキュリティを守るために拡張可能で弾力性のある学習フレームワークを提案します。
提案するフレームワークは分散Asynchronized Discriminator Generative Adrial Networks (AsynDGAN) である。
論文 参考訳(メタデータ) (2020-12-15T20:41:24Z) - RL Unplugged: A Suite of Benchmarks for Offline Reinforcement Learning [108.9599280270704]
オフラインのRL手法を評価・比較するためのRL Unpluggedというベンチマークを提案する。
RL Unpluggedにはゲームやシミュレートされたモーター制御問題を含むさまざまな領域のデータが含まれている。
本論文で提示した全タスクのデータと,全アルゴリズムをオープンソースとして公開する。
論文 参考訳(メタデータ) (2020-06-24T17:14:51Z) - Decentralised Learning from Independent Multi-Domain Labels for Person
Re-Identification [69.29602103582782]
ディープラーニングは多くのコンピュータビジョンタスクで成功している。
しかし、プライバシー問題に対する意識の高まりは、特に人物の再識別(Re-ID)において、ディープラーニングに新たな課題をもたらす。
我々は,複数のプライバシ保護されたローカルモデル(ローカルクライアント)を同時に学習することにより,汎用的なグローバルモデル(中央サーバ)を構築するための,フェデレート・パーソナライゼーション(FedReID)と呼ばれる新しいパラダイムを提案する。
このクライアントサーバ共同学習プロセスは、プライバシコントロールの下で反復的に実行されるため、分散データを共有したり、収集したりすることなく、分散学習を実現することができる。
論文 参考訳(メタデータ) (2020-06-07T13:32:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。