論文の概要: Learning With Differential Privacy
- arxiv url: http://arxiv.org/abs/2006.05609v2
- Date: Thu, 11 Jun 2020 14:11:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 05:07:23.869827
- Title: Learning With Differential Privacy
- Title(参考訳): 差分プライバシーによる学習
- Authors: Poushali Sengupta, Sudipta Paul, Subhankar Mishra
- Abstract要約: 異なるプライバシーは、漏洩に対する適切な保護を約束して救助にやってくる。
データの収集時にランダムな応答技術を使用し、より優れたユーティリティで強力なプライバシを保証します。
- 参考スコア(独自算出の注目度): 3.618133010429131
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The leakage of data might have been an extreme effect on the personal level
if it contains sensitive information. Common prevention methods like
encryption-decryption, endpoint protection, intrusion detection system are
prone to leakage. Differential privacy comes to the rescue with a proper
promise of protection against leakage, as it uses a randomized response
technique at the time of collection of the data which promises strong privacy
with better utility. Differential privacy allows one to access the forest of
data by describing their pattern of groups without disclosing any individual
trees. The current adaption of differential privacy by leading tech companies
and academia encourages authors to explore the topic in detail. The different
aspects of differential privacy, it's application in privacy protection and
leakage of information, a comparative discussion, on the current research
approaches in this field, its utility in the real world as well as the
trade-offs - will be discussed.
- Abstract(参考訳): データ漏洩は、機密情報を含む場合、個人レベルでの極端な影響だった可能性がある。
暗号化復号化、エンドポイント保護、侵入検知システムなどの一般的な防止方法は漏れやすい。
異なるプライバシは、データ収集時にランダム化された応答技術を使用して、より優れたユーティリティで強力なプライバシを約束するので、リークに対する適切な保護の約束によって救助される。
差分プライバシーにより、個々の木を開示することなく、グループのパターンを記述することで、データの森にアクセスすることができる。
主要なテック企業や学術機関による現在の差分プライバシーの適応は、著者にこのトピックを詳細に探求することを奨励している。
異なるプライバシの異なる側面、プライバシ保護と情報の漏洩、比較議論、この分野における現在の研究アプローチ、現実世界における実用性、トレードオフなどについて論じる。
関連論文リスト
- $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - The Privacy Onion Effect: Memorization is Relative [76.46529413546725]
もっとも脆弱な外接点の"層"を取り除くことで、前もって安全だった点の新たな層を同じ攻撃に晒す。
これは、機械学習のようなプライバシー強化技術が、他のユーザーのプライバシーに悪影響を及ぼす可能性を示唆している。
論文 参考訳(メタデータ) (2022-06-21T15:25:56Z) - HyObscure: Hybrid Obscuring for Privacy-Preserving Data Publishing [7.554593344695387]
データユーティリティを確保しながらプライバシリークを最小限に抑えることは、プライバシ保存データパブリッシングタスクにおけるデータホルダーにとって重要な問題である。
これまでのほとんどの研究は、1つの種類のデータにのみ関心を持ち、単一のオブスカー法に頼っている。
本研究は,一般化操作と難読化操作の両方を併用する場合に,プライバシ保護データ公開に関する試行的な研究を行う。
論文 参考訳(メタデータ) (2021-12-15T03:04:00Z) - "I need a better description'': An Investigation Into User Expectations
For Differential Privacy [31.352325485393074]
差分プライバシーに関連するユーザのプライバシ期待について検討する。
ユーザが関心を持っているのは、差分プライバシーが保護する情報漏洩の種類だ。
差分プライバシを記述する方法が,ユーザプライバシの期待を必然的に設定していることが分かりました。
論文 参考訳(メタデータ) (2021-10-13T02:36:37Z) - Swarm Differential Privacy for Purpose Driven
Data-Information-Knowledge-Wisdom Architecture [2.38142799291692]
データ情報知識(DIKW)の広い視野のプライバシー保護について検討する。
差分プライバシーは効果的なデータプライバシーアプローチであることが判明したため、DIKWドメインの観点から見ていきます。
Swarm Intelligenceは、差分プライバシーで使用されるDIKW内のアイテムの数を効果的に最適化し、削減できます。
論文 参考訳(メタデータ) (2021-05-09T23:09:07Z) - Privacy Information Classification: A Hybrid Approach [9.642559585173517]
本研究は,OSNからプライバシ情報を検出し,分類するためのハイブリッドプライバシ分類手法を提案する。
提案したハイブリッドアプローチは、プライバシー関連の情報抽出にディープラーニングモデルとオントロジーベースのモデルの両方を用いる。
論文 参考訳(メタデータ) (2021-01-27T18:03:18Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。