論文の概要: An Overview of Privacy in Machine Learning
- arxiv url: http://arxiv.org/abs/2005.08679v1
- Date: Mon, 18 May 2020 13:05:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 22:43:50.255898
- Title: An Overview of Privacy in Machine Learning
- Title(参考訳): 機械学習におけるプライバシの概要
- Authors: Emiliano De Cristofaro
- Abstract要約: この文書は、機械学習とプライバシに関する関連する概念に関する背景情報を提供する。
本稿では,個人および/または機密情報漏洩に関連する広範囲な攻撃を網羅する,敵対的モデルと設定について論じる。
- 参考スコア(独自算出の注目度): 2.8935588665357077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past few years, providers such as Google, Microsoft, and Amazon have
started to provide customers with access to software interfaces allowing them
to easily embed machine learning tasks into their applications. Overall,
organizations can now use Machine Learning as a Service (MLaaS) engines to
outsource complex tasks, e.g., training classifiers, performing predictions,
clustering, etc. They can also let others query models trained on their data.
Naturally, this approach can also be used (and is often advocated) in other
contexts, including government collaborations, citizen science projects, and
business-to-business partnerships. However, if malicious users were able to
recover data used to train these models, the resulting information leakage
would create serious issues. Likewise, if the inner parameters of the model are
considered proprietary information, then access to the model should not allow
an adversary to learn such parameters. In this document, we set to review
privacy challenges in this space, providing a systematic review of the relevant
research literature, also exploring possible countermeasures. More
specifically, we provide ample background information on relevant concepts
around machine learning and privacy. Then, we discuss possible adversarial
models and settings, cover a wide range of attacks that relate to private
and/or sensitive information leakage, and review recent results attempting to
defend against such attacks. Finally, we conclude with a list of open problems
that require more work, including the need for better evaluations, more
targeted defenses, and the study of the relation to policy and data protection
efforts.
- Abstract(参考訳): 過去数年間、Google、Microsoft、Amazonといったプロバイダは、顧客が簡単に機械学習タスクをアプリケーションに組み込めるように、ソフトウェアインターフェースへのアクセスを提供し始めている。
組織全体で、マシンラーニング・アズ・ア・サービス(MLaaS)エンジンを使用して、分類器のトレーニング、予測の実行、クラスタリングなどの複雑なタスクをアウトソースできるようになった。
また、データに基づいてトレーニングされたモデルを他の人にクエリさせることもできる。
当然、このアプローチは政府のコラボレーション、市民科学プロジェクト、ビジネスとビジネスのパートナーシップなど、他のコンテキストでも使われる(そしてしばしば推奨される)。
しかし、もし悪意のあるユーザーがこれらのモデルのトレーニングに使われたデータを復元できたら、その結果の情報漏洩は深刻な問題を引き起こすだろう。
同様に、モデルの内部パラメータがプロプライエタリな情報と見なされる場合、モデルへのアクセスは、敵がそのようなパラメータを学習することを許さない。
本論文では,この領域におけるプライバシー問題について,関連する研究文献の体系的レビューを行い,対策の可能性を探る。
具体的には、マシンラーニングとプライバシに関する関連する概念に関する十分なバックグラウンド情報を提供します。
そして、敵のモデルや設定について論じ、個人情報や機密情報漏洩に関連する幅広い攻撃をカバーし、そのような攻撃を防ごうとする最近の結果をレビューする。
最後に、より良い評価の必要性、よりターゲティングな防御の必要性、ポリシーとデータ保護の取り組みとの関係の研究など、より多くの作業を必要とするオープンな問題のリストで締めくくります。
関連論文リスト
- Verification of Machine Unlearning is Fragile [48.71651033308842]
両タイプの検証戦略を回避できる2つの新しい非学習プロセスを導入する。
この研究は、機械学習検証の脆弱性と限界を強調し、機械学習の安全性に関するさらなる研究の道を開く。
論文 参考訳(メタデータ) (2024-08-01T21:37:10Z) - A Survey on Machine Unlearning: Techniques and New Emerged Privacy Risks [42.3024294376025]
機械学習は、プライバシー保護分野における研究ホットスポットである。
最近の研究者は、さまざまな機械学習アプローチの潜在的なプライバシー漏洩を発見した。
我々は、定義、実装方法、現実世界のアプリケーションなど、さまざまな面でプライバシーリスクを分析します。
論文 参考訳(メタデータ) (2024-06-10T11:31:04Z) - Machine Unlearning for Document Classification [14.71726430657162]
機械学習として知られる新しいアプローチが登場し、AIモデルを特定の種類のデータを忘れるようにしている。
この研究は、文書分析アプリケーションにおけるプライバシー問題に対処することを目的とした機械学習手法の開発に向けた先駆的なステップである。
論文 参考訳(メタデータ) (2024-04-29T18:16:13Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Survey: Leakage and Privacy at Inference Time [59.957056214792665]
公開されている機械学習(ML)モデルからのデータの漏洩は、ますます重要になっている分野である。
公開モデルの最も可能性の高いシナリオとして、推論時のリークに注目します。
本稿では,不随意・不随意の漏洩,防御,そして現在利用可能な評価指標と応用にまたがる分類法を提案する。
論文 参考訳(メタデータ) (2021-07-04T12:59:16Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - Confidential Machine Learning on Untrusted Platforms: A Survey [10.45742327204133]
我々は機密機械学習(CML)の暗号的アプローチに焦点を当てる。
また、ハードウェア支援の機密コンピューティング環境における摂動ベースのアプローチやCMLなどの他の方向もカバーします。
この議論は、関連する脅威モデル、セキュリティの仮定、攻撃、設計哲学、およびデータユーティリティ、コスト、機密性間の関連するトレードオフの豊富なコンテキストを考慮するための包括的な方法を取ります。
論文 参考訳(メタデータ) (2020-12-15T08:57:02Z) - Privacy in Deep Learning: A Survey [16.278779275923448]
多くの分野でのディープラーニングの継続的な進歩は、プロダクションシステムにDeep Neural Networks(DNN)の採用につながっている。
大規模なデータセットと高い計算能力がこれらの進歩の主な貢献者である。
このデータはさまざまな脆弱性によって誤用または漏洩される可能性があるため、プライバシー上の深刻な懸念が生じる。
論文 参考訳(メタデータ) (2020-04-25T23:47:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。