論文の概要: Privacy-Preserving Machine Learning: Methods, Challenges and Directions
- arxiv url: http://arxiv.org/abs/2108.04417v1
- Date: Tue, 10 Aug 2021 02:58:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-11 14:29:22.471585
- Title: Privacy-Preserving Machine Learning: Methods, Challenges and Directions
- Title(参考訳): プライバシ保護型機械学習: 方法、課題、方向性
- Authors: Runhua Xu, Nathalie Baracaldo, James Joshi
- Abstract要約: よく設計されたプライバシー保護機械学習(PPML)ソリューションは、アカデミックや業界から研究の関心が高まりつつある。
本稿では,既存のプライバシ保護手法を体系的にレビューし,様々なPPMLソリューションの評価をガイドするPGUモデルを提案する。
- 参考スコア(独自算出の注目度): 4.711430413139393
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine learning (ML) is increasingly being adopted in a wide variety of
application domains. Usually, a well-performing ML model, especially, emerging
deep neural network model, relies on a large volume of training data and
high-powered computational resources. The need for a vast volume of available
data raises serious privacy concerns because of the risk of leakage of highly
privacy-sensitive information and the evolving regulatory environments that
increasingly restrict access to and use of privacy-sensitive data. Furthermore,
a trained ML model may also be vulnerable to adversarial attacks such as
membership/property inference attacks and model inversion attacks. Hence,
well-designed privacy-preserving ML (PPML) solutions are crucial and have
attracted increasing research interest from academia and industry. More and
more efforts of PPML are proposed via integrating privacy-preserving techniques
into ML algorithms, fusing privacy-preserving approaches into ML pipeline, or
designing various privacy-preserving architectures for existing ML systems. In
particular, existing PPML arts cross-cut ML, system, security, and privacy;
hence, there is a critical need to understand state-of-art studies, related
challenges, and a roadmap for future research. This paper systematically
reviews and summarizes existing privacy-preserving approaches and proposes a
PGU model to guide evaluation for various PPML solutions through elaborately
decomposing their privacy-preserving functionalities. The PGU model is designed
as the triad of Phase, Guarantee, and technical Utility. Furthermore, we also
discuss the unique characteristics and challenges of PPML and outline possible
directions of future work that benefit a wide range of research communities
among ML, distributed systems, security, and privacy areas.
- Abstract(参考訳): 機械学習(ML)は、さまざまなアプリケーションドメインでますます採用されている。
通常、優れたMLモデル、特に新興のディープニューラルネットワークモデルは、大量のトレーニングデータと高出力の計算リソースに依存している。
大量のデータの必要性は、プライバシーに敏感な情報漏洩のリスクと、プライバシーに敏感なデータへのアクセスと使用をますます制限する規制環境の進展によって、深刻なプライバシー上の懸念を引き起こす。
さらに、トレーニングされたMLモデルは、メンバシップ/プロパティ推論攻撃やモデル反転攻撃といった敵攻撃にも脆弱である可能性がある。
したがって、よく設計されたプライバシ保護ML(PPML)ソリューションは不可欠であり、学術や産業から研究の関心が高まりつつある。
PPMLのさらなる取り組みとして、プライバシ保護技術をMLアルゴリズムに統合すること、プライバシ保護アプローチをMLパイプラインに融合すること、既存のMLシステムのためのさまざまなプライバシ保護アーキテクチャを設計すること、などが提案されている。
特に、既存のPPMLアーツのクロスカットML、システム、セキュリティ、プライバシは、最先端の研究、関連する課題、将来の研究のロードマップを理解するための重要な必要性がある。
本稿では,既存のプライバシ保存手法を体系的に検討,要約し,プライバシ保存機能を詳細に分解することで,様々なPPMLソリューションの評価をガイドするPGUモデルを提案する。
PGUモデルは、フェーズ、保証、技術的ユーティリティのトリアードとして設計されている。
さらに, PPMLの特徴と課題についても論じ, 今後の研究の方向性を概説し, 機械学習, 分散システム, セキュリティ, プライバシ分野の幅広い研究コミュニティに便益を与える。
関連論文リスト
- LLM-PBE: Assessing Data Privacy in Large Language Models [111.58198436835036]
大規模言語モデル(LLM)は多くのドメインに不可欠なものとなり、データ管理、マイニング、分析におけるアプリケーションを大幅に進歩させた。
この問題の批判的な性質にもかかわらず、LLMにおけるデータプライバシのリスクを総合的に評価する文献は存在しない。
本稿では,LLMにおけるデータプライバシリスクの体系的評価を目的としたツールキットであるLLM-PBEを紹介する。
論文 参考訳(メタデータ) (2024-08-23T01:37:29Z) - A Quantization-based Technique for Privacy Preserving Distributed Learning [2.2139875218234475]
本稿では,機械学習モデルの分散トレーニングのための,新しい規則に準拠したデータ保護手法について述べる。
本手法は,Hash-Combとランダム化を組み合わせた量子化マルチハッシュデータ表現に基づくプロトコルを用いることで,トレーニングデータとMLモデルパラメータの両方を保護する。
論文 参考訳(メタデータ) (2024-06-26T14:54:12Z) - State-of-the-Art Approaches to Enhancing Privacy Preservation of Machine Learning Datasets: A Survey [0.0]
本稿では、機械学習(ML)の進化する展望と、その様々な分野における大きな影響について考察する。
プライバシ保護機械学習(PPML)の新たな分野に焦点を当てている。
MLアプリケーションは、通信、金融技術、監視といった産業にとってますます不可欠なものになりつつあるため、プライバシー上の懸念が高まる。
論文 参考訳(メタデータ) (2024-02-25T17:31:06Z) - GuardML: Efficient Privacy-Preserving Machine Learning Services Through
Hybrid Homomorphic Encryption [2.611778281107039]
プライバシ保存機械学習(PPML)メソッドは、機械学習モデルのプライバシとセキュリティを保護するために導入された。
現代の暗号方式であるHybrid Homomorphic Encryption (HHE)が最近登場した。
心電図データに基づく心疾患の分類のためのHHEベースのPPMLアプリケーションの開発と評価を行った。
論文 参考訳(メタデータ) (2024-01-26T13:12:52Z) - Privacy in Large Language Models: Attacks, Defenses and Future Directions [84.73301039987128]
大規模言語モデル(LLM)を対象とした現在のプライバシ攻撃を分析し、敵の想定能力に応じて分類する。
本稿では、これらのプライバシー攻撃に対抗するために開発された防衛戦略について概説する。
論文 参考訳(メタデータ) (2023-10-16T13:23:54Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Machine Learning with Confidential Computing: A Systematization of Knowledge [9.632031075287047]
機械学習(ML)におけるプライバシとセキュリティの課題は、MLの広範な開発と、最近の大規模な攻撃面のデモとともに、ますます深刻になっている。
成熟したシステム指向のアプローチとして、Confidential Computingは、さまざまなMLシナリオにおけるプライバシとセキュリティの問題を軽減するために、学術と産業の両方で使用されている。
機密性保証とii)整合性保証を提供する機密コンピューティング支援ML技術に関する先行研究を体系化し、それらの高度な特徴と欠点について論じる。
論文 参考訳(メタデータ) (2022-08-22T08:23:53Z) - When Machine Learning Meets Spectrum Sharing Security: Methodologies and
Challenges [19.313414666640078]
インターネット接続システムの指数関数的成長は、スペクトル不足問題など、多くの問題を引き起こしている。
複雑でダイナミックなスペクトル共有(SS)システムは、潜在的なセキュリティとプライバシの問題に晒される可能性がある。
これらの問題に対処するために機械学習(ML)ベースの手法が頻繁に提案されている。
論文 参考訳(メタデータ) (2022-01-12T20:04:28Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z) - Understanding the Usability Challenges of Machine Learning In
High-Stakes Decision Making [67.72855777115772]
機械学習(ML)は、多種多様な成長を続ける一連のドメインに適用されている。
多くの場合、MLやデータサイエンスの専門知識を持たないドメインの専門家は、ML予測を使用してハイステークな意思決定を行うように求められます。
児童福祉スクリーニングにおけるMLユーザビリティの課題について,児童福祉スクリーニング者との一連のコラボレーションを通じて検討する。
論文 参考訳(メタデータ) (2021-03-02T22:50:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。