論文の概要: Where Did You Learn That From? Surprising Effectiveness of Membership
Inference Attacks Against Temporally Correlated Data in Deep Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2109.03975v1
- Date: Wed, 8 Sep 2021 23:44:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 14:01:37.396101
- Title: Where Did You Learn That From? Surprising Effectiveness of Membership
Inference Attacks Against Temporally Correlated Data in Deep Reinforcement
Learning
- Title(参考訳): あなたはそれをどこから学んだのですか?
深層強化学習における時間的関連データに対するメンバーシップ推論攻撃のサプライズ効果
- Authors: Maziar Gomrokchi, Susan Amin, Hossein Aboutalebi, Alexander Wong,
Doina Precup
- Abstract要約: 深い強化学習を産業的に広く採用する上での大きな課題は、プライバシー侵害の潜在的な脆弱性である。
本稿では, 深層強化学習アルゴリズムの脆弱性を検証し, メンバーシップ推論攻撃に適応する対戦型攻撃フレームワークを提案する。
- 参考スコア(独自算出の注目度): 114.9857000195174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While significant research advances have been made in the field of deep
reinforcement learning, a major challenge to widespread industrial adoption of
deep reinforcement learning that has recently surfaced but little explored is
the potential vulnerability to privacy breaches. In particular, there have been
no concrete adversarial attack strategies in literature tailored for studying
the vulnerability of deep reinforcement learning algorithms to membership
inference attacks. To address this gap, we propose an adversarial attack
framework tailored for testing the vulnerability of deep reinforcement learning
algorithms to membership inference attacks. More specifically, we design a
series of experiments to investigate the impact of temporal correlation, which
naturally exists in reinforcement learning training data, on the probability of
information leakage. Furthermore, we study the differences in the performance
of \emph{collective} and \emph{individual} membership attacks against deep
reinforcement learning algorithms. Experimental results show that the proposed
adversarial attack framework is surprisingly effective at inferring the data
used during deep reinforcement training with an accuracy exceeding $84\%$ in
individual and $97\%$ in collective mode on two different control tasks in
OpenAI Gym, which raises serious privacy concerns in the deployment of models
resulting from deep reinforcement learning. Moreover, we show that the learning
state of a reinforcement learning algorithm significantly influences the level
of the privacy breach.
- Abstract(参考訳): 深層強化学習の分野では大きな研究が進められているが、最近表面化した深層強化学習を産業的に広く採用するための大きな課題は、プライバシー侵害の潜在的な脆弱性である。
特に、深い強化学習アルゴリズムの脆弱性をメンバーシップ推論攻撃に用いた文献では、具体的な敵攻撃戦略は存在していない。
このギャップに対処するため、我々は、深い強化学習アルゴリズムの脆弱性をメンバーシップ推論攻撃に適用するための敵攻撃フレームワークを提案する。
具体的には、強化学習訓練データに自然に存在する時間相関が情報漏洩の確率に与える影響を調査するための一連の実験を設計する。
さらに,深層強化学習アルゴリズムに対するemph{collective} と \emph{individual} のメンバーシップ攻撃の性能の違いについて検討した。
実験結果から,openai gymの2つの異なる制御タスクにおいて,深層強化訓練中に使用したデータを8,4,7,7,7の精度で推定する上で,提案手法が驚くほど効果的であることが判明した。
さらに,強化学習アルゴリズムの学習状態が,プライバシー侵害のレベルに大きく影響していることを示す。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - PGN: A perturbation generation network against deep reinforcement
learning [8.546103661706391]
エージェントを攻撃するための効果的な敵例を作成するための新しい生成モデルを提案する。
深層強化学習の特異性を考慮して,ステルスネスの尺度として行動整合性比を提案する。
論文 参考訳(メタデータ) (2023-12-20T10:40:41Z) - Adversarial Robustness Unhardening via Backdoor Attacks in Federated
Learning [13.12397828096428]
敵のロバストネス・アンハードニング(ARU)は、分散トレーニング中にモデルロバストネスを意図的に損なうために、敵のサブセットによって使用される。
本研究は,ARUの対人訓練への影響と,中毒やバックドア攻撃に対する既存の堅牢な防御効果を評価する実証実験である。
論文 参考訳(メタデータ) (2023-10-17T21:38:41Z) - Protecting Split Learning by Potential Energy Loss [70.81375125791979]
我々は、分割学習の前方埋め込みからのプライバシー漏洩に焦点を当てる。
我々は、前方埋め込みをより「複雑化」させるためのエネルギー損失の可能性を提案する。
論文 参考訳(メタデータ) (2022-10-18T06:21:11Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Interpretable and Effective Reinforcement Learning for Attacking against
Graph-based Rumor Detection [12.726403718158082]
ソーシャルネットワークは噂によって汚染され、機械学習モデルによって検出される。
ある種の脆弱性は、グラフへの依存と疑わしいランキングによるものである。
ブラックボックス検出器を用いて、強化学習が効果的かつ解釈可能な攻撃ポリシーを学習できるように、依存関係をキャプチャする機能を設計する。
論文 参考訳(メタデータ) (2022-01-15T10:06:29Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。