論文の概要: A Privacy-Preserving Outsourced Data Model in Cloud Environment
- arxiv url: http://arxiv.org/abs/2211.13542v1
- Date: Thu, 24 Nov 2022 11:27:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 18:34:50.643481
- Title: A Privacy-Preserving Outsourced Data Model in Cloud Environment
- Title(参考訳): クラウド環境におけるプライバシー保護型アウトソースデータモデル
- Authors: Rishabh Gupta and Ashutosh Kumar Singh
- Abstract要約: データセキュリティとプライバシの問題は、機械学習ツールの使用にとって重要な障害のひとつだ。
機械学習効率を損なうことなくデータのプライバシを保護するプライバシ保存モデルを提案する。
Fogノードは、データ所有者からノイズ付加データを収集し、ストレージ、計算、分類タスクの実行のためにクラウドプラットフォームに移行する。
- 参考スコア(独自算出の注目度): 8.176020822058586
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, more and more machine learning applications, such as medical
diagnosis, online fraud detection, email spam filtering, etc., services are
provided by cloud computing. The cloud service provider collects the data from
the various owners to train or classify the machine learning system in the
cloud environment. However, multiple data owners may not entirely rely on the
cloud platform that a third party engages. Therefore, data security and privacy
problems are among the critical hindrances to using machine learning tools,
particularly with multiple data owners. In addition, unauthorized entities can
detect the statistical input data and infer the machine learning model
parameters. Therefore, a privacy-preserving model is proposed, which protects
the privacy of the data without compromising machine learning efficiency. In
order to protect the data of data owners, the epsilon-differential privacy is
used, and fog nodes are used to address the problem of the lower bandwidth and
latency in this proposed scheme. The noise is produced by the
epsilon-differential mechanism, which is then added to the data. Moreover, the
noise is injected at the data owner site to protect the owners data. Fog nodes
collect the noise-added data from the data owners, then shift it to the cloud
platform for storage, computation, and performing the classification tasks
purposes.
- Abstract(参考訳): 現在、医療診断、オンライン詐欺検出、eメールスパムフィルタリングなどの機械学習アプリケーションが増えており、クラウドコンピューティングによってサービスが提供されている。
クラウドサービスプロバイダは、さまざまな所有者からデータを収集して、クラウド環境で機械学習システムをトレーニングまたは分類する。
しかし、複数のデータ所有者が第三者が関与するクラウドプラットフォームに完全に依存するわけではない。
したがって、データセキュリティとプライバシ問題は、マシンラーニングツール、特に複数のデータ所有者にとって重要な障害のひとつだ。
さらに、不正なエンティティは、統計入力データを検出し、機械学習モデルのパラメータを推測することができる。
そこで,機械学習の効率を損なうことなくデータのプライバシを保護するプライバシ保存モデルを提案する。
データ所有者のデータを保護するために、epsilon-differential privacyが使われ、フォグノードは提案方式における低帯域幅とレイテンシの問題に対処するために使用される。
ノイズは、データに付加されるエプシロン微分機構によって生成される。
さらに、オーナーデータを保護するために、データ所有者サイトにノイズを注入する。
フォグノードは、データ所有者からノイズ付加されたデータを収集し、ストレージ、計算、分類タスクの目的のためにクラウドプラットフォームに移行します。
関連論文リスト
- GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - Considerations for Differentially Private Learning with Large-Scale
Public Pretraining [58.75893136929649]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - A Survey on Differential Privacy with Machine Learning and Future
Outlook [0.0]
差分プライバシーは、あらゆる攻撃や脆弱性から機械学習モデルを保護するために使用される。
本稿では,2つのカテゴリに分類される差分プライベート機械学習アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-11-19T14:20:53Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - Certified Data Removal in Sum-Product Networks [78.27542864367821]
収集したデータの削除は、データのプライバシを保証するのに不十分であることが多い。
UnlearnSPNは、訓練された総生産ネットワークから単一データポイントの影響を取り除くアルゴリズムである。
論文 参考訳(メタデータ) (2022-10-04T08:22:37Z) - Privacy for Free: How does Dataset Condensation Help Privacy? [21.418263507735684]
私たちは、データセット凝縮(DC)が、プライベートデータ生成のために従来のデータジェネレータを置き換えるためのより良いソリューションであることも確認しています。
我々は、DC合成データの視覚的プライバシとメンバシップのプライバシを、損失ベースと最先端の可能性ベースのメンバシップ推論攻撃の両方を起動することによって実証的に検証する。
論文 参考訳(メタデータ) (2022-06-01T05:39:57Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training [64.54200987493573]
我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
論文 参考訳(メタデータ) (2021-06-04T13:42:21Z) - Prive-HD: Privacy-Preserved Hyperdimensional Computing [18.512391787497673]
超次元(HD)コンピューティングは、その軽量な計算とロバスト性により、勢いを増している。
本稿では,クラウドにホストされた推論のために送信された情報を難読化するために,差分プライベートモデルを実現するための精度プライバシトレードオフ手法を提案する。
論文 参考訳(メタデータ) (2020-05-14T04:19:34Z) - Privacy-Preserving Public Release of Datasets for Support Vector Machine
Classification [14.095523601311374]
我々は,データ対象者のプライバシーを侵害することなく,ベクトルマシン分類をサポートするデータセットを公開することの問題点を考察する。
データセットは、プライバシ保護のための付加ノイズを使用して、体系的に難読化される。
元のデータセットから抽出された分類器と難読化された分類器が互いに近接していることを保証する条件を確立する。
論文 参考訳(メタデータ) (2019-12-29T03:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。