論文の概要: Privacy-Preserving Machine Learning: Methods, Challenges and Directions
- arxiv url: http://arxiv.org/abs/2108.04417v1
- Date: Tue, 10 Aug 2021 02:58:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-11 14:29:22.471585
- Title: Privacy-Preserving Machine Learning: Methods, Challenges and Directions
- Title(参考訳): プライバシ保護型機械学習: 方法、課題、方向性
- Authors: Runhua Xu, Nathalie Baracaldo, James Joshi
- Abstract要約: よく設計されたプライバシー保護機械学習(PPML)ソリューションは、アカデミックや業界から研究の関心が高まりつつある。
本稿では,既存のプライバシ保護手法を体系的にレビューし,様々なPPMLソリューションの評価をガイドするPGUモデルを提案する。
- 参考スコア(独自算出の注目度): 4.711430413139393
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine learning (ML) is increasingly being adopted in a wide variety of
application domains. Usually, a well-performing ML model, especially, emerging
deep neural network model, relies on a large volume of training data and
high-powered computational resources. The need for a vast volume of available
data raises serious privacy concerns because of the risk of leakage of highly
privacy-sensitive information and the evolving regulatory environments that
increasingly restrict access to and use of privacy-sensitive data. Furthermore,
a trained ML model may also be vulnerable to adversarial attacks such as
membership/property inference attacks and model inversion attacks. Hence,
well-designed privacy-preserving ML (PPML) solutions are crucial and have
attracted increasing research interest from academia and industry. More and
more efforts of PPML are proposed via integrating privacy-preserving techniques
into ML algorithms, fusing privacy-preserving approaches into ML pipeline, or
designing various privacy-preserving architectures for existing ML systems. In
particular, existing PPML arts cross-cut ML, system, security, and privacy;
hence, there is a critical need to understand state-of-art studies, related
challenges, and a roadmap for future research. This paper systematically
reviews and summarizes existing privacy-preserving approaches and proposes a
PGU model to guide evaluation for various PPML solutions through elaborately
decomposing their privacy-preserving functionalities. The PGU model is designed
as the triad of Phase, Guarantee, and technical Utility. Furthermore, we also
discuss the unique characteristics and challenges of PPML and outline possible
directions of future work that benefit a wide range of research communities
among ML, distributed systems, security, and privacy areas.
- Abstract(参考訳): 機械学習(ML)は、さまざまなアプリケーションドメインでますます採用されている。
通常、優れたMLモデル、特に新興のディープニューラルネットワークモデルは、大量のトレーニングデータと高出力の計算リソースに依存している。
大量のデータの必要性は、プライバシーに敏感な情報漏洩のリスクと、プライバシーに敏感なデータへのアクセスと使用をますます制限する規制環境の進展によって、深刻なプライバシー上の懸念を引き起こす。
さらに、トレーニングされたMLモデルは、メンバシップ/プロパティ推論攻撃やモデル反転攻撃といった敵攻撃にも脆弱である可能性がある。
したがって、よく設計されたプライバシ保護ML(PPML)ソリューションは不可欠であり、学術や産業から研究の関心が高まりつつある。
PPMLのさらなる取り組みとして、プライバシ保護技術をMLアルゴリズムに統合すること、プライバシ保護アプローチをMLパイプラインに融合すること、既存のMLシステムのためのさまざまなプライバシ保護アーキテクチャを設計すること、などが提案されている。
特に、既存のPPMLアーツのクロスカットML、システム、セキュリティ、プライバシは、最先端の研究、関連する課題、将来の研究のロードマップを理解するための重要な必要性がある。
本稿では,既存のプライバシ保存手法を体系的に検討,要約し,プライバシ保存機能を詳細に分解することで,様々なPPMLソリューションの評価をガイドするPGUモデルを提案する。
PGUモデルは、フェーズ、保証、技術的ユーティリティのトリアードとして設計されている。
さらに, PPMLの特徴と課題についても論じ, 今後の研究の方向性を概説し, 機械学習, 分散システム, セキュリティ, プライバシ分野の幅広い研究コミュニティに便益を与える。
関連論文リスト
- Wildest Dreams: Reproducible Research in Privacy-preserving Neural
Network Training [2.853180143237022]
この作業は、ユーザデータのプライバシを維持することが最も重要であるMLモデルのトレーニングフェーズに重点を置いている。
我々は、現在のアプローチの理解を容易にする、しっかりとした理論的背景を提供する。
我々は,いくつかの論文の成果を再現し,その分野における既存の研究がオープンサイエンスを支援するレベルについて検討する。
論文 参考訳(メタデータ) (2024-03-06T10:25:36Z) - Privacy and Security Implications of Cloud-Based AI Services : A Survey [4.1964397179107085]
この記事では、今日のクラウドエコシステムにおけるプライバシとセキュリティの状況について詳述する。
機械学習モデルによってもたらされるリスクに対処する上で、ギャップがあることを識別する。
論文 参考訳(メタデータ) (2024-01-31T13:30:20Z) - GuardML: Efficient Privacy-Preserving Machine Learning Services Through
Hybrid Homomorphic Encryption [2.611778281107039]
プライバシ保存機械学習(PPML)メソッドは、機械学習モデルのプライバシとセキュリティを保護するために導入された。
現代の暗号方式であるHybrid Homomorphic Encryption (HHE)が最近登場した。
心電図データに基づく心疾患の分類のためのHHEベースのPPMLアプリケーションの開発と評価を行った。
論文 参考訳(メタデータ) (2024-01-26T13:12:52Z) - Large Language Models Can Be Good Privacy Protection Learners [53.07930843882592]
本稿では,プライバシ保護言語モデル(PPLM)を紹介する。
本研究は, コーパスキュレーション, ペナルティに基づくトレーニング損失の相違, 命令に基づくチューニングなど, モデル設計の理論的解析を行う。
特に、肯定的な例と否定的な例の両方による命令チューニングは、モデルの知識を高めながら、個人データを効果的に保護する、有望な方法として際立っている。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Identifying and Mitigating Privacy Risks Stemming from Language Models:
A Survey [47.04394421368761]
言語モデル(LM)には、プライバシーなど、さまざまなリスクがある。
LMが普及するにつれて、このようなプライバシーのリスクと、どのように緩和されるかを理解することが不可欠である。
LMプライバシに関する最初の技術調査を示す。
論文 参考訳(メタデータ) (2023-09-27T15:15:23Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Machine Learning with Confidential Computing: A Systematization of
Knowledge [5.457279006229211]
機械学習(ML)におけるプライバシとセキュリティの課題は、MLの広範な開発と、最近の大規模な攻撃面のデモとともに、ますます深刻になっている。
成熟したシステム指向のアプローチとして、Confidential Computingは、さまざまなMLシナリオにおけるプライバシとセキュリティの問題を軽減するために、学術と産業の両方で使用されている。
機密性保証とii)整合性保証を提供する機密コンピューティング支援ML技術に関する先行研究を体系化し、それらの高度な特徴と欠点について論じる。
論文 参考訳(メタデータ) (2022-08-22T08:23:53Z) - When Machine Learning Meets Spectrum Sharing Security: Methodologies and
Challenges [19.313414666640078]
インターネット接続システムの指数関数的成長は、スペクトル不足問題など、多くの問題を引き起こしている。
複雑でダイナミックなスペクトル共有(SS)システムは、潜在的なセキュリティとプライバシの問題に晒される可能性がある。
これらの問題に対処するために機械学習(ML)ベースの手法が頻繁に提案されている。
論文 参考訳(メタデータ) (2022-01-12T20:04:28Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z) - Understanding the Usability Challenges of Machine Learning In
High-Stakes Decision Making [67.72855777115772]
機械学習(ML)は、多種多様な成長を続ける一連のドメインに適用されている。
多くの場合、MLやデータサイエンスの専門知識を持たないドメインの専門家は、ML予測を使用してハイステークな意思決定を行うように求められます。
児童福祉スクリーニングにおけるMLユーザビリティの課題について,児童福祉スクリーニング者との一連のコラボレーションを通じて検討する。
論文 参考訳(メタデータ) (2021-03-02T22:50:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。