論文の概要: Confidential Machine Learning on Untrusted Platforms: A Survey
- arxiv url: http://arxiv.org/abs/2012.08156v1
- Date: Tue, 15 Dec 2020 08:57:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 09:56:23.737865
- Title: Confidential Machine Learning on Untrusted Platforms: A Survey
- Title(参考訳): 非信頼プラットフォームにおける機密機械学習:調査
- Authors: Sagar Sharma, Keke Chen
- Abstract要約: 我々は機密機械学習(CML)の暗号的アプローチに焦点を当てる。
また、ハードウェア支援の機密コンピューティング環境における摂動ベースのアプローチやCMLなどの他の方向もカバーします。
この議論は、関連する脅威モデル、セキュリティの仮定、攻撃、設計哲学、およびデータユーティリティ、コスト、機密性間の関連するトレードオフの豊富なコンテキストを考慮するための包括的な方法を取ります。
- 参考スコア(独自算出の注目度): 10.45742327204133
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With ever-growing data and the need for developing powerful machine learning
models, data owners increasingly depend on untrusted platforms (e.g., public
clouds, edges, and machine learning service providers). However, sensitive data
and models become susceptible to unauthorized access, misuse, and privacy
compromises. Recently, a body of research has been developed to train machine
learning models on encrypted outsourced data with untrusted platforms. In this
survey, we summarize the studies in this emerging area with a unified framework
to highlight the major challenges and approaches. We will focus on the
cryptographic approaches for confidential machine learning (CML), while also
covering other directions such as perturbation-based approaches and CML in the
hardware-assisted confidential computing environment. The discussion will take
a holistic way to consider a rich context of the related threat models,
security assumptions, attacks, design philosophies, and associated trade-offs
amongst data utility, cost, and confidentiality.
- Abstract(参考訳): 成長を続けるデータと強力な機械学習モデルの開発の必要性により、データ所有者はますます信頼できないプラットフォーム(パブリッククラウド、エッジ、マシンラーニングサービスプロバイダなど)に依存している。
しかし、機密データやモデルは不正アクセス、誤用、プライバシー侵害の影響を受けやすい。
近年,信頼できないプラットフォームで暗号化されたアウトソーシングデータの機械学習モデルをトレーニングする研究が進められている。
本調査では、この新興分野の研究を、主要な課題とアプローチを強調する統一的な枠組みで要約する。
ハードウェア支援型秘密コンピューティング環境における摂動に基づくアプローチやCMLといった他の方向性についても取り上げながら、機密機械学習(CML)の暗号的アプローチに焦点を当てる。
議論は、関連する脅威モデル、セキュリティ仮定、攻撃、設計哲学、およびデータユーティリティ、コスト、機密性の間の関連するトレードオフのリッチなコンテキストを検討するための包括的な方法を取る。
関連論文リスト
- A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - A Survey on Blockchain-Based Federated Learning and Data Privacy [1.0499611180329802]
フェデレーテッド・ラーニング(Federated Learning)は、複数のクライアントがローカルな計算能力とモデルの伝達を活用して協力できるようにする、分散機械学習パラダイムである。
一方、フェデレーション学習は、ストレージ、転送、共有に使用されるプライバシー保護機構が欠如しているため、データ漏洩の欠点がある。
この調査は、ブロックチェーンベースのフェデレーション学習アーキテクチャで採用されているさまざまなデータプライバシメカニズムのパフォーマンスとセキュリティを比較することを目的としている。
論文 参考訳(メタデータ) (2023-06-29T23:43:25Z) - White-box Inference Attacks against Centralized Machine Learning and
Federated Learning [0.0]
ニューラルネットワーク層,勾配,勾配ノルム,微調整モデルの違いが,事前知識によるメンバー推論攻撃性能に与える影響を評価する。
その結果,集中型機械学習モデルでは,すべての面において,より深刻なメンバー情報漏洩が見られた。
論文 参考訳(メタデータ) (2022-12-15T07:07:19Z) - A Survey on Differential Privacy with Machine Learning and Future
Outlook [0.0]
差分プライバシーは、あらゆる攻撃や脆弱性から機械学習モデルを保護するために使用される。
本稿では,2つのカテゴリに分類される差分プライベート機械学習アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-11-19T14:20:53Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - Reliability Check via Weight Similarity in Privacy-Preserving
Multi-Party Machine Learning [7.552100672006174]
我々は、データプライバシ、モデルプライバシ、マルチパーティ機械学習に関連するデータ品質の懸念に対処することに注力する。
データとモデルのプライバシーを確保しつつ、参加者のデータ品質をチェックするプライバシー保護協調学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T08:55:42Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - An Overview of Privacy in Machine Learning [2.8935588665357077]
この文書は、機械学習とプライバシに関する関連する概念に関する背景情報を提供する。
本稿では,個人および/または機密情報漏洩に関連する広範囲な攻撃を網羅する,敵対的モデルと設定について論じる。
論文 参考訳(メタデータ) (2020-05-18T13:05:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。