論文の概要: When Machine Learning Meets Privacy: A Survey and Outlook
- arxiv url: http://arxiv.org/abs/2011.11819v1
- Date: Tue, 24 Nov 2020 00:52:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 12:44:45.120388
- Title: When Machine Learning Meets Privacy: A Survey and Outlook
- Title(参考訳): マシンラーニングがプライバシに出会った時 - 調査と展望
- Authors: Bo Liu, Ming Ding, Sina Shaham, Wenny Rahayu, Farhad Farokhi, Zihuai
Lin
- Abstract要約: プライバシーは、この機械学習ベースの人工知能時代において大きな関心事となっている。
プライバシと機械学習(ML)の保存に関する作業はまだ初期段階にある。
本稿では、プライバシ問題における最先端技術と機械学習ソリューションについて調査する。
- 参考スコア(独自算出の注目度): 22.958274878097683
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The newly emerged machine learning (e.g. deep learning) methods have become a
strong driving force to revolutionize a wide range of industries, such as smart
healthcare, financial technology, and surveillance systems. Meanwhile, privacy
has emerged as a big concern in this machine learning-based artificial
intelligence era. It is important to note that the problem of privacy
preservation in the context of machine learning is quite different from that in
traditional data privacy protection, as machine learning can act as both friend
and foe. Currently, the work on the preservation of privacy and machine
learning (ML) is still in an infancy stage, as most existing solutions only
focus on privacy problems during the machine learning process. Therefore, a
comprehensive study on the privacy preservation problems and machine learning
is required. This paper surveys the state of the art in privacy issues and
solutions for machine learning. The survey covers three categories of
interactions between privacy and machine learning: (i) private machine
learning, (ii) machine learning aided privacy protection, and (iii) machine
learning-based privacy attack and corresponding protection schemes. The current
research progress in each category is reviewed and the key challenges are
identified. Finally, based on our in-depth analysis of the area of privacy and
machine learning, we point out future research directions in this field.
- Abstract(参考訳): 新たに登場した機械学習(ディープラーニングなど)の手法は、スマートヘルスケア、金融技術、監視システムといった幅広い産業に革命をもたらす強力な推進力となっている。
一方、この機械学習ベースの人工知能時代には、プライバシーが大きな関心事になっている。
機械学習のコンテキストにおけるプライバシ保護の問題と、従来のデータプライバシ保護の問題とはまったく異なる点に注意が必要だ。
現在、プライバシとマシンラーニング(ml)の保存に関する作業は、まだ初期段階にあり、既存のソリューションのほとんどは、マシンラーニングプロセス中のプライバシの問題のみに焦点を当てている。
したがって、プライバシー保護問題と機械学習に関する包括的な研究が必要である。
本稿では,機械学習におけるプライバシ問題とソリューションの現状について調査する。
この調査は、プライバシとマシンラーニングの間のインタラクションの3つのカテゴリをカバーする。
(i)プライベート機械学習
(ii) 機械学習がプライバシー保護を支援し、
(iii)機械学習に基づくプライバシ攻撃とそれに対応する保護スキーム。
各カテゴリにおける現在の研究の進展をレビューし、主要な課題を特定する。
最後に、プライバシーと機械学習の分野に関する詳細な分析に基づいて、この分野の今後の研究方向性を指摘する。
関連論文リスト
- A Review on Machine Unlearning [3.1168315477643245]
本稿では、機械学習モデルにおけるセキュリティとプライバシに関する詳細をレビューする。
まず、機械学習が日々の生活でユーザーのプライベートデータをどのように活用できるか、そしてこの問題で果たす役割について述べる。
次に,機械学習モデルにおけるセキュリティ脅威を記述することによって,機械学習の概念を導入する。
論文 参考訳(メタデータ) (2024-11-18T06:18:13Z) - Automated Privacy-Preserving Techniques via Meta-Learning [4.239829789304117]
最初の自動プライバシ保存手法であるAUTOPRIVを提案する。
メタラーニングを使用して、非識別プロセスを自動化することで、マシンラーニングタスクのためのデータのセキュアなリリースを容易にする。
我々は、新しい領域内で最適な近似を達成できるであろう最も有望なソリューションのランクリストを提供する。
論文 参考訳(メタデータ) (2024-06-24T08:53:45Z) - A Survey on Machine Unlearning: Techniques and New Emerged Privacy Risks [42.3024294376025]
機械学習は、プライバシー保護分野における研究ホットスポットである。
最近の研究者は、さまざまな機械学習アプローチの潜在的なプライバシー漏洩を発見した。
我々は、定義、実装方法、現実世界のアプリケーションなど、さまざまな面でプライバシーリスクを分析します。
論文 参考訳(メタデータ) (2024-06-10T11:31:04Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Machine Unlearning: A Survey [56.79152190680552]
プライバシ、ユーザビリティ、および/または忘れられる権利のために、特定のサンプルに関する情報をマシンアンラーニングと呼ばれるモデルから削除する必要がある特別なニーズが生まれている。
この新興技術は、その革新と実用性により、学者と産業の両方から大きな関心を集めている。
この複雑なトピックを分析したり、さまざまなシナリオで既存の未学習ソリューションの実現可能性を比較したりした研究はない。
この調査は、未学習のテクニックに関する卓越した問題と、新しい研究機会のための実現可能な方向性を強調して締めくくった。
論文 参考訳(メタデータ) (2023-06-06T10:18:36Z) - A Survey on Differential Privacy with Machine Learning and Future
Outlook [0.0]
差分プライバシーは、あらゆる攻撃や脆弱性から機械学習モデルを保護するために使用される。
本稿では,2つのカテゴリに分類される差分プライベート機械学習アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-11-19T14:20:53Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z) - A Survey of Privacy Attacks in Machine Learning [0.7614628596146599]
この研究は、機械学習に対するプライバシー攻撃に関連する40以上の論文の分析である。
プライバシリークの原因についての最初の調査と、異なる攻撃の詳細な分析が紹介されている。
本稿では,最も一般的に提案されている防衛の概観と,分析において確認されたオープンな問題と今後の方向性について論じる。
論文 参考訳(メタデータ) (2020-07-15T12:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。