論文の概要: Reinforcement Learning on Encrypted Data
- arxiv url: http://arxiv.org/abs/2109.08236v1
- Date: Thu, 16 Sep 2021 21:59:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-20 14:50:28.250572
- Title: Reinforcement Learning on Encrypted Data
- Title(参考訳): 暗号化データの強化学習
- Authors: Alberto Jesu, Victor-Alexandru Darvariu, Alessandro Staffolani,
Rebecca Montanari, Mirco Musolesi
- Abstract要約: 本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
- 参考スコア(独自算出の注目度): 58.39270571778521
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growing number of applications of Reinforcement Learning (RL) in
real-world domains has led to the development of privacy-preserving techniques
due to the inherently sensitive nature of data. Most existing works focus on
differential privacy, in which information is revealed in the clear to an agent
whose learned model should be robust against information leakage to malicious
third parties. Motivated by use cases in which only encrypted data might be
shared, such as information from sensitive sites, in this work we consider
scenarios in which the inputs themselves are sensitive and cannot be revealed.
We develop a simple extension to the MDP framework which provides for the
encryption of states. We present a preliminary, experimental study of how a DQN
agent trained on encrypted states performs in environments with discrete and
continuous state spaces. Our results highlight that the agent is still capable
of learning in small state spaces even in presence of non-deterministic
encryption, but performance collapses in more complex environments.
- Abstract(参考訳): 実世界のドメインにおける強化学習(RL)のアプリケーションの増加は、データの本質的にセンシティブな性質からプライバシー保護技術の開発につながっている。
既存の作品の多くは、情報漏洩に対して堅牢であるべき学習モデルを持つエージェントに対して、情報を明確に開示する差分プライバシーに焦点を当てている。
センシティブなサイトからの情報など、暗号化されたデータのみを共有できるユースケースに動機づけられた本研究では、入力自体がセンシティブであり、明らかにできないシナリオを検討する。
我々は、状態の暗号化を提供するMDPフレームワークの簡単な拡張を開発する。
本稿では,離散状態空間と連続状態空間を有する環境でのdqnエージェントの動作に関する予備的,実験的研究を行う。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
関連論文リスト
- Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Application of Data Encryption in Chinese Named Entity Recognition [11.084360853065736]
本稿では,機密データの漏洩や不便な開示といった問題に対処する暗号学習フレームワークを提案する。
名前付きエンティティ認識タスクにおいて、トレーニングデータを初めて暗号化するために、複数の暗号化アルゴリズムを導入する。
実験結果から, 暗号化手法は良好な結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-08-31T04:20:37Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - TenSEAL: A Library for Encrypted Tensor Operations Using Homomorphic
Encryption [0.0]
モノモルフィック暗号化を用いたプライバシー保護機械学習のためのオープンソースライブラリTenSEALを紹介します。
我々は,半メガバイト以下の通信を用いて,暗号化畳み込みニューラルネットワークを1秒以内で評価可能であることを示す。
論文 参考訳(メタデータ) (2021-04-07T14:32:38Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z) - Secure Sum Outperforms Homomorphic Encryption in (Current) Collaborative
Deep Learning [7.690774882108066]
我々は、異なるデータ所有者のジョイントデータに基づいてニューラルネットワークをトレーニングする方法について議論し、各パーティの入力を秘密にしている。
より複雑で計算コストの低いセキュア和プロトコルは、共謀耐性と実行性の両方において優れた特性を示すことを示す。
論文 参考訳(メタデータ) (2020-06-02T23:03:32Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。