論文の概要: A Forecasting-Based DLP Approach for Data Security
- arxiv url: http://arxiv.org/abs/2312.13704v1
- Date: Thu, 21 Dec 2023 10:14:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 15:30:54.241567
- Title: A Forecasting-Based DLP Approach for Data Security
- Title(参考訳): データセキュリティのための予測型DLPアプローチ
- Authors: Kishu Gupta, Ashwani Kush
- Abstract要約: 本稿では,将来ユーザのデータアクセス可能性を予測するために,データ統計解析を用いる。
提案手法は, モデルへの学習・学習において, 名高い単項線形関数を用いる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sensitive data leakage is the major growing problem being faced by
enterprises in this technical era. Data leakage causes severe threats for
organization of data safety which badly affects the reputation of
organizations. Data leakage is the flow of sensitive data/information from any
data holder to an unauthorized destination. Data leak prevention (DLP) is set
of techniques that try to alleviate the threats which may hinder data security.
DLP unveils guilty user responsible for data leakage and ensures that user
without appropriate permission cannot access sensitive data and also provides
protection to sensitive data if sensitive data is shared accidentally. In this
paper, data leakage prevention (DLP) model is used to restrict/grant data
access permission to user, based on the forecast of their access to data. This
study provides a DLP solution using data statistical analysis to forecast the
data access possibilities of any user in future based on the access to data in
the past. The proposed approach makes use of renowned simple piecewise linear
function for learning/training to model. The results show that the proposed DLP
approach with high level of precision can correctly classify between users even
in cases of extreme data access.
- Abstract(参考訳): 敏感なデータ漏洩は、この技術的時代に企業が直面している大きな問題である。
データ漏洩はデータ安全性の組織に深刻な脅威をもたらし、組織の評判に悪影響を及ぼす。
データリーク(data leak)は、任意のデータホルダから不正な宛先への機密データ/情報の流れである。
データ漏洩防止(data leak prevention, dlp)は、データセキュリティを妨げる恐れのある脅威を緩和しようとする一連のテクニックである。
DLPは、データ漏洩の責任を負う有罪なユーザを明らかにし、適切な許可のないユーザが機密データにアクセスできないことを保証し、機密データが誤って共有された場合に機密データを保護する。
本稿では,データアクセスの予測に基づいて,ユーザへのデータアクセス許可を制限/付与するためにデータ漏洩防止(dlp)モデルを用いる。
本研究では、過去のデータアクセスに基づいて、データ統計分析を用いて、将来のユーザのデータアクセス可能性を予測するDLPソリューションを提供する。
提案手法は,モデルへの学習・学習に簡便な線形関数を用いた。
その結果,データアクセスが極端な場合であっても,高精度なDLP手法がユーザ間で正しく分類できることが示唆された。
関連論文リスト
- Data Advisor: Dynamic Data Curation for Safety Alignment of Large Language Models [79.65071553905021]
所望のデータセットの特徴を考慮したデータ生成手法であるデータアドバイザを提案する。
Data Advisorは生成されたデータの状態を監視し、現在のデータセットの弱点を特定し、データ生成の次のイテレーションをアドバイスする。
論文 参考訳(メタデータ) (2024-10-07T17:59:58Z) - Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - DataCook: Crafting Anti-Adversarial Examples for Healthcare Data Copyright Protection [47.91906879320081]
DataCookは、配布前に生データを"クッキング"することで、この処理されたデータに対して正常に実行されるモデルの開発を可能にする。
デプロイメントフェーズでは、オリジナルのテストデータをDataCookを通じて“クッキング”して、通常のモデルパフォーマンスを保証する必要がある。
DataCookの背後にあるメカニズムは、モデルの信頼性を高めるために設計された反逆例(AntiAdv)を作ることである。
論文 参考訳(メタデータ) (2024-03-26T14:44:51Z) - A Learning oriented DLP System based on Classification Model [0.0]
データ漏洩は、組織が直面している最も重大な問題です。
データ漏洩を緩和するために、データ漏洩防止システム(DLPS)は組織によって様々なレベルに配置されている。
論文 参考訳(メタデータ) (2023-12-21T10:23:16Z) - Towards Generalizable Data Protection With Transferable Unlearnable
Examples [50.628011208660645]
本稿では、転送不可能な例を生成することによって、新しい一般化可能なデータ保護手法を提案する。
私たちの知る限りでは、これはデータ分散の観点からデータのプライバシを調べる最初のソリューションです。
論文 参考訳(メタデータ) (2023-05-18T04:17:01Z) - Stop Uploading Test Data in Plain Text: Practical Strategies for
Mitigating Data Contamination by Evaluation Benchmarks [70.39633252935445]
データ汚染は、大規模な自動クロールコーパスで事前訓練されたモデルの台頭によって、普及し、課題となっている。
クローズドモデルの場合、トレーニングデータはトレードシークレットになり、オープンモデルであっても汚染を検出するのは簡単ではない。
1)公開するテストデータを公開鍵で暗号化し,デリバティブ配信を許可する,(2)クローズドAPI保持者からの要求トレーニング排他的コントロールを許可する,(2)評価を拒否してテストデータを保護する,(3)インターネット上のソリューションで表示されるデータを避け,インターネット由来のWebページコンテキストを解放する,という3つの方法を提案する。
論文 参考訳(メタデータ) (2023-05-17T12:23:38Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Secure Multiparty Computation for Synthetic Data Generation from
Distributed Data [7.370727048591523]
関連データへのアクセスに関する法的および倫理的な制限は、健康、金融、教育といった重要な領域におけるデータ科学の研究を阻害する。
既存のアプローチでは、データ保持者は信頼されたキュレーターに生データを供給し、それを合成データ生成の燃料として利用する。
本稿では,データ保持者が暗号化されたデータのみを差分プライベートな合成データ生成のために共有する,最初のソリューションを提案する。
論文 参考訳(メタデータ) (2022-10-13T20:09:17Z) - Data Poisoning Attacks and Defenses to Crowdsourcing Systems [26.147716118854614]
クラウドソーシングはデータ中毒攻撃に対して脆弱であることを示す。
悪意のあるクライアントは、集約されたデータを壊すために注意深く作られたデータを提供します。
悪質なクライアントの影響を減らすため、2つの防御策を提案する。
論文 参考訳(メタデータ) (2021-02-18T06:03:48Z) - Deep Directed Information-Based Learning for Privacy-Preserving Smart
Meter Data Release [30.409342804445306]
本稿では,時系列データとスマートメータ(SM)電力消費測定の文脈における問題点について検討する。
我々は、考慮された設定において、より意味のあるプライバシーの尺度として、指向情報(DI)を導入します。
最悪のシナリオにおけるSMs測定による実世界のデータセットに関する実証的研究は、プライバシとユーティリティの既存のトレードオフを示している。
論文 参考訳(メタデータ) (2020-11-20T13:41:11Z) - Privacy Preservation in Federated Learning: An insightful survey from
the GDPR Perspective [10.901568085406753]
この記事は、フェデレーテッドラーニングに使用できる最先端のプライバシー技術に関する調査に特化している。
近年の研究では、FLにおけるデータの保持と計算は、プライバシ保証者にとって不十分であることが示されている。
これは、FLシステム内のパーティ間で交換されるMLモデルパラメータが、いくつかのプライバシ攻撃で悪用されるためである。
論文 参考訳(メタデータ) (2020-11-10T21:41:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。