論文の概要: Gradient Inversion in Federated Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2512.00303v1
- Date: Sat, 29 Nov 2025 03:54:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.159049
- Title: Gradient Inversion in Federated Reinforcement Learning
- Title(参考訳): 連邦強化学習におけるグラディエント・インバージョン
- Authors: Shenghong He,
- Abstract要約: フェデレート強化学習(FRL)は、勾配共有を通じてローカルデータのプライバシを保護しながら、最適なポリシの分散学習を可能にする。
正規化グラディエント・インバージョン・アタック(RGIA)と呼ばれる新たな攻撃手法を提案する。
RGIAは、状態、報酬、遷移ダイナミクスの事前知識に基づく正規化を最適化プロセス中に実施し、再構成されたデータが真の遷移分布に近づき続けることを保証する。
制御タスクと自律運転タスクに関する大規模な実験は、RGIAが効率的に再構成されたデータ遷移分布を制約し、ローカルなプライベートデータの再構築に成功したことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated reinforcement learning (FRL) enables distributed learning of optimal policies while preserving local data privacy through gradient sharing.However, FRL faces the risk of data privacy leaks, where attackers exploit shared gradients to reconstruct local training data.Compared to traditional supervised federated learning, successful reconstruction in FRL requires the generated data not only to match the shared gradients but also to align with real transition dynamics of the environment (i.e., aligning with the real data transition distribution).To address this issue, we propose a novel attack method called Regularization Gradient Inversion Attack (RGIA), which enforces prior-knowledge-based regularization on states, rewards, and transition dynamics during the optimization process to ensure that the reconstructed data remain close to the true transition distribution.Theoretically, we prove that the prior-knowledge-based regularization term narrows the solution space from a broad set containing spurious solutions to a constrained subset that satisfies both gradient matching and true transition dynamics.Extensive experiments on control tasks and autonomous driving tasks demonstrate that RGIA can effectively constrain reconstructed data transition distributions and thus successfully reconstruct local private data.
- Abstract(参考訳): フェデレート強化学習(FRL)は、グラデーション共有を通じてローカルデータのプライバシを保護しながら、最適なポリシの分散学習を可能にするが、攻撃者がローカルトレーニングデータを再構築するために共有勾配を利用するデータプライバシリークのリスクに直面している。
この問題に対処するために, 正規化グラディエント・インバージョン・アタック (RGIA) と呼ばれる新たな攻撃手法を提案する。これは, 状態, 報酬, 遷移ダイナミクスの事前知識に基づく正規化を最適化プロセス中に実施することにより, 再構成されたデータが真の遷移分布に近づき続けることを保証するものである。理論的には, 事前知識に基づく正規化項は, 勾配マッチングと真の遷移ダイナミクスの両方を満たす制約付きサブセットの急激な解を含む広い集合から, 解空間を狭めることが証明される。
関連論文リスト
- Transfer Learning Through Conditional Quantile Matching [3.86972243789112]
我々は、異種ソースドメインを利用した回帰学習フレームワークを導入し、データスカースターゲットドメインにおける予測性能を改善する。
提案手法は,各ソース領域に対して個別に条件生成モデルを学習し,条件量子マッチングにより対象ドメインに対する応答を校正する。
論文 参考訳(メタデータ) (2026-02-02T17:19:55Z) - Rethinking Federated Graph Foundation Models: A Graph-Language Alignment-based Approach [8.517604507672262]
フェデレーショングラフ基礎モデル(FedGFMs)の最近の研究は、グラフ基礎モデルを訓練するために集中的なデータストレージを持つという理想的かつ持続不可能な仮定を破っている。
ベクトル量子化されたバックボーンを経由した離散トークン空間上の一般化可能な知識が、量子化過程中に不可逆的な知識損失に悩まされるという研究は、現存する。
論文 参考訳(メタデータ) (2026-01-29T07:50:00Z) - Consolidation or Adaptation? PRISM: Disentangling SFT and RL Data via Gradient Concentration [56.074760766965085]
PRISMは、モデルの既存の知識との認知的対立度に基づいてデータを調停する動的認識フレームワークを実現する。
この結果から,内部最適化方式に基づくデータ分離が,スケーラブルでロバストなエージェントアライメントに不可欠であることが示唆された。
論文 参考訳(メタデータ) (2026-01-12T05:43:20Z) - Local Gradient Regulation Stabilizes Federated Learning under Client Heterogeneity [41.890949680958805]
フェデレートラーニング(FL)は、生データを共有せずに、分散クライアント間で協調的なモデルトレーニングを可能にする。
クライアントは、クライアントサイドの最適化中に局所的な勾配のダイナミクスを歪ませることでFLを不安定にする。
我々は、追加の通信オーバーヘッドを発生させることなく、局所的なグラデーションコントリビューションを規制する一般的なクライアント側視点を開発する。
論文 参考訳(メタデータ) (2026-01-07T04:58:18Z) - SPEAR++: Scaling Gradient Inversion via Sparsely-Used Dictionary Learning [48.41770886055744]
Federated Learningは最近、現実世界のシナリオへのデプロイが増えている。
いわゆる勾配反転攻撃の導入は、プライバシー保護特性に挑戦している。
本稿では,ReLU活性化を伴う線形層の勾配の理論的解析に基づくSPEARを紹介する。
新たな攻撃であるSPEAR++は、DPノイズに対する堅牢性やFedAvgアグリゲーションなど、SPEARの望ましい特性をすべて保持しています。
論文 参考訳(メタデータ) (2025-10-28T09:06:19Z) - Enhancing Offline Reinforcement Learning with Curriculum Learning-Based Trajectory Valuation [6.4653739435880455]
深層強化学習(DRL)は、訓練データの可用性と品質に依存しており、しばしば特定の環境との広範な相互作用を必要とする。
データ収集が高価でリスクの高い現実のシナリオでは、オフライン強化学習(RL)は、ドメインの専門家が収集したデータを活用し、バッチ制約のある最適ポリシーを探索することで、ソリューションを提供する。
既存のオフラインRLメソッドは、外部ソースからの非マッチングデータによって引き起こされる課題に悩まされることが多い。
論文 参考訳(メタデータ) (2025-02-02T00:03:53Z) - GI-NAS: Boosting Gradient Inversion Attacks Through Adaptive Neural Architecture Search [52.27057178618773]
グラディエント・インバージョン・アタック (Gradient Inversion Attacks) は、Federated Learning (FL) システムの伝達勾配を反転させ、ローカルクライアントの機密データを再構築する。
勾配反転法の大半は明示的な事前知識に大きく依存しており、現実的なシナリオでは利用できないことが多い。
本稿では,ニューラルネットワークを適応的に探索し,ニューラルネットワークの背後にある暗黙の先行情報をキャプチャするニューラルアーキテクチャ探索(GI-NAS)を提案する。
論文 参考訳(メタデータ) (2024-05-31T09:29:43Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - FedAgg: Adaptive Federated Learning with Aggregated Gradients [1.5653612447564105]
我々はFedAggと呼ばれる適応型FEDerated Learningアルゴリズムを提案し、局所モデルパラメータと平均モデルパラメータのばらつきを緩和し、高速モデル収束率を得る。
IIDおよび非IIDデータセット下でのモデル性能の向上と収束速度の促進を目的として,本手法が既存のFL戦略よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-28T08:07:28Z) - Magnitude Matters: Fixing SIGNSGD Through Magnitude-Aware Sparsification
in the Presence of Data Heterogeneity [60.791736094073]
通信オーバーヘッドは、ディープニューラルネットワークの分散トレーニングにおいて、大きなボトルネックのひとつになっています。
本稿では,SIGNSGDの非収束問題に対処する等級化方式を提案する。
提案手法は,Fashion-MNIST, CIFAR-10, CIFAR-100データセットを用いて検証した。
論文 参考訳(メタデータ) (2023-02-19T17:42:35Z) - A Regularized Implicit Policy for Offline Reinforcement Learning [54.7427227775581]
オフラインの強化学習は、環境とのさらなるインタラクションなしに、固定データセットから学習を可能にする。
フレキシブルだが十分に調整された完全実装ポリシーの学習を支援するフレームワークを提案する。
D4RLデータセットの実験とアブレーション研究により、我々のフレームワークとアルゴリズム設計の有効性が検証された。
論文 参考訳(メタデータ) (2022-02-19T20:22:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。