論文の概要: Confidential Machine Learning on Untrusted Platforms: A Survey
- arxiv url: http://arxiv.org/abs/2012.08156v1
- Date: Tue, 15 Dec 2020 08:57:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 09:56:23.737865
- Title: Confidential Machine Learning on Untrusted Platforms: A Survey
- Title(参考訳): 非信頼プラットフォームにおける機密機械学習:調査
- Authors: Sagar Sharma, Keke Chen
- Abstract要約: 我々は機密機械学習(CML)の暗号的アプローチに焦点を当てる。
また、ハードウェア支援の機密コンピューティング環境における摂動ベースのアプローチやCMLなどの他の方向もカバーします。
この議論は、関連する脅威モデル、セキュリティの仮定、攻撃、設計哲学、およびデータユーティリティ、コスト、機密性間の関連するトレードオフの豊富なコンテキストを考慮するための包括的な方法を取ります。
- 参考スコア(独自算出の注目度): 10.45742327204133
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With ever-growing data and the need for developing powerful machine learning
models, data owners increasingly depend on untrusted platforms (e.g., public
clouds, edges, and machine learning service providers). However, sensitive data
and models become susceptible to unauthorized access, misuse, and privacy
compromises. Recently, a body of research has been developed to train machine
learning models on encrypted outsourced data with untrusted platforms. In this
survey, we summarize the studies in this emerging area with a unified framework
to highlight the major challenges and approaches. We will focus on the
cryptographic approaches for confidential machine learning (CML), while also
covering other directions such as perturbation-based approaches and CML in the
hardware-assisted confidential computing environment. The discussion will take
a holistic way to consider a rich context of the related threat models,
security assumptions, attacks, design philosophies, and associated trade-offs
amongst data utility, cost, and confidentiality.
- Abstract(参考訳): 成長を続けるデータと強力な機械学習モデルの開発の必要性により、データ所有者はますます信頼できないプラットフォーム(パブリッククラウド、エッジ、マシンラーニングサービスプロバイダなど)に依存している。
しかし、機密データやモデルは不正アクセス、誤用、プライバシー侵害の影響を受けやすい。
近年,信頼できないプラットフォームで暗号化されたアウトソーシングデータの機械学習モデルをトレーニングする研究が進められている。
本調査では、この新興分野の研究を、主要な課題とアプローチを強調する統一的な枠組みで要約する。
ハードウェア支援型秘密コンピューティング環境における摂動に基づくアプローチやCMLといった他の方向性についても取り上げながら、機密機械学習(CML)の暗号的アプローチに焦点を当てる。
議論は、関連する脅威モデル、セキュリティ仮定、攻撃、設計哲学、およびデータユーティリティ、コスト、機密性の間の関連するトレードオフのリッチなコンテキストを検討するための包括的な方法を取る。
関連論文リスト
- Survey of Security and Data Attacks on Machine Unlearning In Financial and E-Commerce [0.0]
本稿では、金融・電子商取引アプリケーションに焦点をあて、機械学習におけるセキュリティとデータアタックの状況について調査する。
これらのリスクを軽減するため、差分プライバシー、堅牢な暗号保証、ZKP(Zero-Knowledge Proofs)など、さまざまな防衛戦略が検討されている。
この調査は、セキュアマシンアンラーニングにおける継続的な研究とイノベーションの必要性と、進化する攻撃ベクトルに対する強力な防御を開発することの重要性を強調している。
論文 参考訳(メタデータ) (2024-09-29T00:30:36Z) - Verification of Machine Unlearning is Fragile [48.71651033308842]
両タイプの検証戦略を回避できる2つの新しい非学習プロセスを導入する。
この研究は、機械学習検証の脆弱性と限界を強調し、機械学習の安全性に関するさらなる研究の道を開く。
論文 参考訳(メタデータ) (2024-08-01T21:37:10Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - A Survey on Blockchain-Based Federated Learning and Data Privacy [1.0499611180329802]
フェデレーテッド・ラーニング(Federated Learning)は、複数のクライアントがローカルな計算能力とモデルの伝達を活用して協力できるようにする、分散機械学習パラダイムである。
一方、フェデレーション学習は、ストレージ、転送、共有に使用されるプライバシー保護機構が欠如しているため、データ漏洩の欠点がある。
この調査は、ブロックチェーンベースのフェデレーション学習アーキテクチャで採用されているさまざまなデータプライバシメカニズムのパフォーマンスとセキュリティを比較することを目的としている。
論文 参考訳(メタデータ) (2023-06-29T23:43:25Z) - A Survey on Differential Privacy with Machine Learning and Future
Outlook [0.0]
差分プライバシーは、あらゆる攻撃や脆弱性から機械学習モデルを保護するために使用される。
本稿では,2つのカテゴリに分類される差分プライベート機械学習アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-11-19T14:20:53Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Reliability Check via Weight Similarity in Privacy-Preserving
Multi-Party Machine Learning [7.552100672006174]
我々は、データプライバシ、モデルプライバシ、マルチパーティ機械学習に関連するデータ品質の懸念に対処することに注力する。
データとモデルのプライバシーを確保しつつ、参加者のデータ品質をチェックするプライバシー保護協調学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T08:55:42Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - An Overview of Privacy in Machine Learning [2.8935588665357077]
この文書は、機械学習とプライバシに関する関連する概念に関する背景情報を提供する。
本稿では,個人および/または機密情報漏洩に関連する広範囲な攻撃を網羅する,敵対的モデルと設定について論じる。
論文 参考訳(メタデータ) (2020-05-18T13:05:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。