論文の概要: TableGuard -- Securing Structured & Unstructured Data
- arxiv url: http://arxiv.org/abs/2408.07045v1
- Date: Tue, 13 Aug 2024 17:20:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-14 16:45:31.957715
- Title: TableGuard -- Securing Structured & Unstructured Data
- Title(参考訳): TableGuard -- 構造化および非構造化データのセキュア化
- Authors: Anantha Sharma, Ajinkya Deshmukh,
- Abstract要約: TableGuard"はリレーショナルデータベースに適したデータ難読化のための革新的なアプローチである。
API呼び出しは、難読化されたデータのみを返すため、サードパーティとデータを共有する際のプライバシを保護する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the increasing demand for data sharing across platforms and organizations, ensuring the privacy and security of sensitive information has become a critical challenge. This paper introduces "TableGuard". An innovative approach to data obfuscation tailored for relational databases. Building on the principles and techniques developed in prior work on context-sensitive obfuscation, TableGuard applies these methods to ensure that API calls return only obfuscated data, thereby safeguarding privacy when sharing data with third parties. TableGuard leverages advanced context-sensitive obfuscation techniques to replace sensitive data elements with contextually appropriate alternatives. By maintaining the relational integrity and coherence of the data, our approach mitigates the risks of cognitive dissonance and data leakage. We demonstrate the implementation of TableGuard using a BERT based transformer model, which identifies and obfuscates sensitive entities within relational tables. Our evaluation shows that TableGuard effectively balances privacy protection with data utility, minimizing information loss while ensuring that the obfuscated data remains functionally useful for downstream applications. The results highlight the importance of domain-specific obfuscation strategies and the role of context length in preserving data integrity. The implications of this research are significant for organizations that need to share data securely with external parties. TableGuard offers a robust framework for implementing privacy-preserving data sharing mechanisms, thereby contributing to the broader field of data privacy and security.
- Abstract(参考訳): プラットフォームや組織間でのデータ共有の需要が高まる中、機密情報のプライバシーとセキュリティの確保が重要な課題となっている。
本稿では,「TableGuard」を紹介する。
リレーショナルデータベースに適したデータ難読化に対する革新的なアプローチ。
コンテキストに敏感な難読化に関する以前の作業で開発された原則とテクニックに基づいて、TableGuardはこれらの手法を適用して、API呼び出しが難読化データのみを返すことを保証し、サードパーティとデータを共有する際のプライバシを保護する。
TableGuardは、先進的なコンテキスト依存の難読化技術を活用して、センシティブなデータ要素をコンテキスト的に適切な代替品に置き換える。
データのリレーショナル整合性とコヒーレンスを維持することにより,認知的不協和とデータ漏洩のリスクを軽減する。
本研究では,リレーショナルテーブル内のセンシティブなエンティティを識別・難読化するBERTトランスフォーマーモデルを用いてTableGuardの実装を実演する。
評価の結果、TableGuardはプライバシー保護とデータユーティリティのバランスを効果的に保ち、情報損失を最小限に抑えつつ、難読化されたデータが下流アプリケーションで機能的に有用であることを保証している。
その結果、データ整合性を維持する上で、ドメイン固有の難読化戦略の重要性とコンテキスト長の役割を強調した。
この研究の意義は、外部とデータを安全に共有する必要がある組織にとって重要である。
TableGuardは、プライバシを保存するデータ共有メカニズムを実装するための堅牢なフレームワークを提供する。
関連論文リスト
- Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Cloaked Classifiers: Pseudonymization Strategies on Sensitive Classification Tasks [4.66054169739129]
本稿では,データ保護と堅牢なプライバシ保護のバランスについて検討する。
我々は,多言語急進化データセットを手動で偽名化する手法を共有し,元のデータに匹敵する性能を確保する。
論文 参考訳(メタデータ) (2024-06-25T18:30:25Z) - Mimicking User Data: On Mitigating Fine-Tuning Risks in Closed Large Language Models [53.50543146583101]
小さなデータセット上の微調整された大きな言語モデルは、特定の下流タスクのパフォーマンスを向上させることができる。
悪意のあるアクターは、ほぼすべてのタスク固有のデータセットの構造を微妙に操作することで、より危険なモデル行動を促進することができる。
本稿では,タスク形式を模倣した安全データとユーザデータのスタイルを混合した新しい緩和戦略を提案する。
論文 参考訳(メタデータ) (2024-06-12T18:33:11Z) - Marking the Pace: A Blockchain-Enhanced Privacy-Traceable Strategy for Federated Recommender Systems [11.544642210389894]
フェデレートされたレコメンデータシステムは、データ共有と継続的モデル更新によって強化されている。
IoTデータの感度を考えると、データ共有とモデル更新における透過的なデータ処理が最重要である。
既存の方法は、共有データのフローとモデル更新の進化をトレースするのに不足している。
プライバシ追跡可能なフェデレーションレコメンデータシステムであるLIBERATEを提案する。
論文 参考訳(メタデータ) (2024-06-07T07:21:21Z) - The Data Minimization Principle in Machine Learning [61.17813282782266]
データ最小化は、収集、処理、保持されるデータの量を減らすことを目的としている。
様々な国際データ保護規制によって支持されている。
しかし、厳密な定式化が欠如しているため、その実践的な実装は依然として課題である。
論文 参考訳(メタデータ) (2024-05-29T19:40:27Z) - Securing Data Platforms: Strategic Masking Techniques for Privacy and
Security for B2B Enterprise Data [0.0]
ビジネス・ツー・ビジネス(B2B)企業はますますデータプラットフォームを構築しています。
データプライバシとセキュリティを本質的にサポートするメカニズムで、これらのデータプラットフォームを設計することが重要になっている。
データマスキングは、データプラットフォームアーキテクチャの重要な特徴である。
論文 参考訳(メタデータ) (2023-12-06T05:04:37Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Protecting Global Properties of Datasets with Distribution Privacy
Mechanisms [8.19841678851784]
このようなデータの機密性を形式化するために、配信プライバシフレームワークをどのように適用できるかを示す。
次に、これらのメカニズムのプライバシユーティリティトレードオフを実証的に評価し、実用的なプロパティ推論攻撃に対して適用する。
論文 参考訳(メタデータ) (2022-07-18T03:54:38Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - HyObscure: Hybrid Obscuring for Privacy-Preserving Data Publishing [7.554593344695387]
データユーティリティを確保しながらプライバシリークを最小限に抑えることは、プライバシ保存データパブリッシングタスクにおけるデータホルダーにとって重要な問題である。
これまでのほとんどの研究は、1つの種類のデータにのみ関心を持ち、単一のオブスカー法に頼っている。
本研究は,一般化操作と難読化操作の両方を併用する場合に,プライバシ保護データ公開に関する試行的な研究を行う。
論文 参考訳(メタデータ) (2021-12-15T03:04:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。