論文の概要: A Privacy-Preserving Outsourced Data Model in Cloud Environment
- arxiv url: http://arxiv.org/abs/2211.13542v1
- Date: Thu, 24 Nov 2022 11:27:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 18:34:50.643481
- Title: A Privacy-Preserving Outsourced Data Model in Cloud Environment
- Title(参考訳): クラウド環境におけるプライバシー保護型アウトソースデータモデル
- Authors: Rishabh Gupta and Ashutosh Kumar Singh
- Abstract要約: データセキュリティとプライバシの問題は、機械学習ツールの使用にとって重要な障害のひとつだ。
機械学習効率を損なうことなくデータのプライバシを保護するプライバシ保存モデルを提案する。
Fogノードは、データ所有者からノイズ付加データを収集し、ストレージ、計算、分類タスクの実行のためにクラウドプラットフォームに移行する。
- 参考スコア(独自算出の注目度): 8.176020822058586
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, more and more machine learning applications, such as medical
diagnosis, online fraud detection, email spam filtering, etc., services are
provided by cloud computing. The cloud service provider collects the data from
the various owners to train or classify the machine learning system in the
cloud environment. However, multiple data owners may not entirely rely on the
cloud platform that a third party engages. Therefore, data security and privacy
problems are among the critical hindrances to using machine learning tools,
particularly with multiple data owners. In addition, unauthorized entities can
detect the statistical input data and infer the machine learning model
parameters. Therefore, a privacy-preserving model is proposed, which protects
the privacy of the data without compromising machine learning efficiency. In
order to protect the data of data owners, the epsilon-differential privacy is
used, and fog nodes are used to address the problem of the lower bandwidth and
latency in this proposed scheme. The noise is produced by the
epsilon-differential mechanism, which is then added to the data. Moreover, the
noise is injected at the data owner site to protect the owners data. Fog nodes
collect the noise-added data from the data owners, then shift it to the cloud
platform for storage, computation, and performing the classification tasks
purposes.
- Abstract(参考訳): 現在、医療診断、オンライン詐欺検出、eメールスパムフィルタリングなどの機械学習アプリケーションが増えており、クラウドコンピューティングによってサービスが提供されている。
クラウドサービスプロバイダは、さまざまな所有者からデータを収集して、クラウド環境で機械学習システムをトレーニングまたは分類する。
しかし、複数のデータ所有者が第三者が関与するクラウドプラットフォームに完全に依存するわけではない。
したがって、データセキュリティとプライバシ問題は、マシンラーニングツール、特に複数のデータ所有者にとって重要な障害のひとつだ。
さらに、不正なエンティティは、統計入力データを検出し、機械学習モデルのパラメータを推測することができる。
そこで,機械学習の効率を損なうことなくデータのプライバシを保護するプライバシ保存モデルを提案する。
データ所有者のデータを保護するために、epsilon-differential privacyが使われ、フォグノードは提案方式における低帯域幅とレイテンシの問題に対処するために使用される。
ノイズは、データに付加されるエプシロン微分機構によって生成される。
さらに、オーナーデータを保護するために、データ所有者サイトにノイズを注入する。
フォグノードは、データ所有者からノイズ付加されたデータを収集し、ストレージ、計算、分類タスクの目的のためにクラウドプラットフォームに移行します。
関連論文リスト
- FT-PrivacyScore: Personalized Privacy Scoring Service for Machine Learning Participation [4.772368796656325]
実際には、制御されたデータアクセスは、多くの産業や研究環境でデータプライバシを保護する主要な方法である。
我々は,FT-PrivacyScoreのプロトタイプを開発し,モデル微調整作業に参加する際のプライバシーリスクを効率よく定量的に推定できることを実証した。
論文 参考訳(メタデータ) (2024-10-30T02:41:26Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - K-Nearest Neighbor Classification over Semantically Secure Encrypted Relational Data [0.0]
データが暗号化されているパブリッククラウド環境では、クラウドサービスプロバイダは通常、暗号化キーを制御する。
この状況は、従来のプライバシー保護分類システムを不適切なものにしている。
我々は、暗号化されたアウトソースデータに対して、セキュアなk近傍の分類アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-05T19:44:17Z) - Privacy in Cloud Computing through Immersion-based Coding [1.4226399196408985]
プライバシ保護方式でデータの共有と処理が可能なコーディング機構を設計するためのフレームワークを提案する。
提案手法は,制御理論に基づく差分プライバシとシステム浸漬ツールの相乗効果に基づいて構築される。
提案手法は,アルゴリズムの有用性を損なうことなく,任意のレベルの差分プライバシーを提供するように設計されていることを示す。
論文 参考訳(メタデータ) (2024-03-07T13:38:18Z) - Privacy Side Channels in Machine Learning Systems [87.53240071195168]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
例えば、差分プライベートなトレーニングを適用する前にトレーニングデータを重複させることで、保証可能なプライバシ保証を完全に無効にするサイドチャネルが生成されることを示す。
さらに,学習データセットに含まれる秘密鍵を抽出するために,言語モデルを学習データ再生からブロックするシステムを利用することを示す。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - A Survey on Differential Privacy with Machine Learning and Future
Outlook [0.0]
差分プライバシーは、あらゆる攻撃や脆弱性から機械学習モデルを保護するために使用される。
本稿では,2つのカテゴリに分類される差分プライベート機械学習アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-11-19T14:20:53Z) - Certified Data Removal in Sum-Product Networks [78.27542864367821]
収集したデータの削除は、データのプライバシを保証するのに不十分であることが多い。
UnlearnSPNは、訓練された総生産ネットワークから単一データポイントの影響を取り除くアルゴリズムである。
論文 参考訳(メタデータ) (2022-10-04T08:22:37Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training [64.54200987493573]
我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
論文 参考訳(メタデータ) (2021-06-04T13:42:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。