論文の概要: Security and Privacy Preserving Deep Learning
- arxiv url: http://arxiv.org/abs/2006.12698v2
- Date: Mon, 29 Jun 2020 09:34:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 22:24:46.552597
- Title: Security and Privacy Preserving Deep Learning
- Title(参考訳): ディープラーニングのセキュリティとプライバシ保護
- Authors: Saichethan Miriyala Reddy and Saisree Miriyala
- Abstract要約: ディープラーニングに必要な膨大なデータ収集は、明らかにプライバシーの問題を提示している。
写真や音声録音などの、個人的かつ高感度なデータは、収集する企業によって無期限に保持される。
深層ニューラルネットワークは、トレーニングデータに関する情報を記憶するさまざまな推論攻撃の影響を受けやすい。
- 参考スコア(独自算出の注目度): 2.322461721824713
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Commercial companies that collect user data on a large scale have been the
main beneficiaries of this trend since the success of deep learning techniques
is directly proportional to the amount of data available for training. Massive
data collection required for deep learning presents obvious privacy issues.
Users personal, highly sensitive data such as photos and voice recordings are
kept indefinitely by the companies that collect it. Users can neither delete it
nor restrict the purposes for which it is used. So, data privacy has been a
very important concern for governments and companies these days. It gives rise
to a very interesting challenge since on the one hand, we are pushing further
and further for high-quality models and accessible data, but on the other hand,
we need to keep data safe from both intentional and accidental leakage. The
more personal the data is it is more restricted it means some of the most
important social issues cannot be addressed using machine learning because
researchers do not have access to proper training data. But by learning how to
machine learning that protects privacy we can make a huge difference in solving
many social issues like curing disease etc. Deep neural networks are
susceptible to various inference attacks as they remember information about
their training data. In this chapter, we introduce differential privacy, which
ensures that different kinds of statistical analyses dont compromise privacy
and federated learning, training a machine learning model on a data to which we
do not have access to.
- Abstract(参考訳): ディープラーニング技術の成功は、トレーニングに利用可能なデータ量に直接比例するため、大規模にユーザデータを収集する商用企業は、このトレンドの主な受益者となっている。
ディープラーニングに必要な膨大なデータ収集は、明らかにプライバシーの問題をもたらす。
写真や音声録音などの機密性の高いデータは、収集する企業によって無期限に保持される。
ユーザーはそれを削除することも、使用する目的を制限することもできない。
だから最近のデータプライバシーは、政府や企業にとってとても重要な問題だ。
これは非常に興味深い課題を引き起こします。一方、私たちは高品質なモデルとアクセス可能なデータに向けてさらに前進していますが、一方で、意図的および偶発的な漏洩からデータを安全に保つ必要があります。
データがより個人的に制限されるほど、研究者が適切なトレーニングデータにアクセスできないため、機械学習を使用して対処する上で最も重要な社会問題の一部に対処できない。
しかし、プライバシーを保護する機械学習を学べば、病気の治癒など多くの社会的な問題を解決することができる。
深層ニューラルネットワークは、トレーニングデータに関する情報を記憶するさまざまな推論攻撃の影響を受けやすい。
この章では、異なる種類の統計分析が、プライバシとフェデレーション学習を損なわないよう保証する差分プライバシを導入し、我々がアクセスできないデータで機械学習モデルをトレーニングします。
関連論文リスト
- FT-PrivacyScore: Personalized Privacy Scoring Service for Machine Learning Participation [4.772368796656325]
実際には、制御されたデータアクセスは、多くの産業や研究環境でデータプライバシを保護する主要な方法である。
我々は,FT-PrivacyScoreのプロトタイプを開発し,モデル微調整作業に参加する際のプライバシーリスクを効率よく定量的に推定できることを実証した。
論文 参考訳(メタデータ) (2024-10-30T02:41:26Z) - Federated Learning Privacy: Attacks, Defenses, Applications, and Policy Landscape - A Survey [27.859861825159342]
ディープラーニングは、さまざまなタスクにおいて、信じられないほど大きな可能性を秘めている。
プライバシーに関する最近の懸念は、そのようなデータにアクセスする際の課題をさらに強調している。
フェデレーション学習は重要なプライバシー保護技術として登場した。
論文 参考訳(メタデータ) (2024-05-06T16:55:20Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Certified Data Removal in Sum-Product Networks [78.27542864367821]
収集したデータの削除は、データのプライバシを保証するのに不十分であることが多い。
UnlearnSPNは、訓練された総生産ネットワークから単一データポイントの影響を取り除くアルゴリズムである。
論文 参考訳(メタデータ) (2022-10-04T08:22:37Z) - The Privacy Onion Effect: Memorization is Relative [76.46529413546725]
もっとも脆弱な外接点の"層"を取り除くことで、前もって安全だった点の新たな層を同じ攻撃に晒す。
これは、機械学習のようなプライバシー強化技術が、他のユーザーのプライバシーに悪影響を及ぼす可能性を示唆している。
論文 参考訳(メタデータ) (2022-06-21T15:25:56Z) - Privacy in Deep Learning: A Survey [16.278779275923448]
多くの分野でのディープラーニングの継続的な進歩は、プロダクションシステムにDeep Neural Networks(DNN)の採用につながっている。
大規模なデータセットと高い計算能力がこれらの進歩の主な貢献者である。
このデータはさまざまな脆弱性によって誤用または漏洩される可能性があるため、プライバシー上の深刻な懸念が生じる。
論文 参考訳(メタデータ) (2020-04-25T23:47:25Z) - A Review of Privacy-preserving Federated Learning for the
Internet-of-Things [3.3517146652431378]
この研究は、分散データ上で機械学習を実行するためのアプローチとして、フェデレーション学習をレビューした。
ユーザ生成データのプライバシ保護と,データ転送に伴う通信コストの削減を目的としている。
フェデレート学習に適用される様々な手法の長所と短所を同定する。
論文 参考訳(メタデータ) (2020-04-24T15:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。