論文の概要: Life of PII -- A PII Obfuscation Transformer
- arxiv url: http://arxiv.org/abs/2305.09550v1
- Date: Tue, 16 May 2023 15:48:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 14:09:42.743812
- Title: Life of PII -- A PII Obfuscation Transformer
- Title(参考訳): PIIの寿命 -PII難燃変換器-
- Authors: Ajinkya Deshmukh, Saumya Banthia, Anantha Sharma
- Abstract要約: 「PIIの生活」は、個人識別情報(PII)を偽PIIに変換するための新しい難読化トランスフォーマーフレームワークである。
当社のアプローチは,プライバシ保護とデータユーティリティ間のトレードオフにおいて,よりフレキシブルな柔軟性を提供するとともに,元の情報を保存しながら,実用上の損失を効果的に低減できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Protecting sensitive information is crucial in today's world of Large
Language Models (LLMs) and data-driven services. One common method used to
preserve privacy is by using data perturbation techniques to reduce
overreaching utility of (sensitive) Personal Identifiable Information (PII)
data while maintaining its statistical and semantic properties. Data
perturbation methods often result in significant information loss, making them
impractical for use. In this paper, we propose 'Life of PII', a novel
Obfuscation Transformer framework for transforming PII into faux-PII while
preserving the original information, intent, and context as much as possible.
Our approach includes an API to interface with the given document, a
configuration-based obfuscator, and a model based on the Transformer
architecture, which has shown high context preservation and performance in
natural language processing tasks and LLMs.
Our Transformer-based approach learns mapping between the original PII and
its transformed faux-PII representation, which we call "obfuscated" data. Our
experiments demonstrate that our method, called Life of PII, outperforms
traditional data perturbation techniques in terms of both utility preservation
and privacy protection. We show that our approach can effectively reduce
utility loss while preserving the original information, offering greater
flexibility in the trade-off between privacy protection and data utility. Our
work provides a solution for protecting PII in various real-world applications.
- Abstract(参考訳): センシティブな情報を保護することは、今日の大規模言語モデル(LLM)とデータ駆動サービスにとって非常に重要です。
プライバシーを守るために使われる一般的な方法は、統計的および意味的特性を維持しながら、(機密性の高い)個人識別情報(PII)データの過剰な利用を減らすためにデータ摂動技術を使用することである。
データ摂動法は、しばしば重大な情報損失をもたらすため、使用には実用的でない。
本稿では,PIIをFaux-PIIに変換するための新しい難読化トランスフォーマフレームワークである"Life of PII"を提案する。
提案手法には,与えられた文書と対話するAPI,設定ベースのオブファスケータ,および自然言語処理タスクやLLMにおいて高いコンテキスト保存と性能を示すTransformerアーキテクチャに基づくモデルが含まれる。
我々のTransformerベースのアプローチは、元のPIIと変換されたfaux-PII表現の間のマッピングを学習する。
提案手法であるlife of piiは,従来のデータ摂動技術よりもユーティリティ保護とプライバシ保護の両面で優れていることを実証した。
本手法は,プライバシ保護とデータユーティリティ間のトレードオフの柔軟性を高めるとともに,元の情報を保存しながら,効果的にユーティリティ損失を低減できることを示す。
我々の研究は、様々な現実世界のアプリケーションでPIIを保護するソリューションを提供する。
関連論文リスト
- Enhancing Security Using Random Binary Weights in Privacy-Preserving Federated Learning [5.311735227179715]
視覚変換器を用いたプライバシー保護フェデレーション学習におけるセキュリティ向上手法を提案する。
連合学習では、各クライアントから生データを収集することなく更新情報を収集して学習を行う。
提案手法の有効性は, APRIL (Attention PRIvacy Leakage) 修復攻撃に対するモデル性能と抵抗の観点から確認した。
論文 参考訳(メタデータ) (2024-09-30T06:28:49Z) - Mitigating the Privacy Issues in Retrieval-Augmented Generation (RAG) via Pure Synthetic Data [51.41288763521186]
Retrieval-augmented Generation (RAG)は、外部知識ソースから取得した関連情報を統合することにより、言語モデルの出力を強化する。
RAGシステムは、プライベートデータを取得する際に深刻なプライバシーリスクに直面する可能性がある。
検索データに対するプライバシー保護の代替として,合成データを用いる方法を提案する。
論文 参考訳(メタデータ) (2024-06-20T22:53:09Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Robust Representation Learning for Privacy-Preserving Machine Learning:
A Multi-Objective Autoencoder Approach [0.9831489366502302]
プライバシー保護機械学習(ppML)のための堅牢な表現学習フレームワークを提案する。
提案手法は,多目的方式でオートエンコーダを訓練することを中心に,符号化部からの潜伏と学習の特徴を符号化形式として結合する。
提案したフレームワークでは、元のフォームを公開せずに、データを共有し、サードパーティツールを使用することができます。
論文 参考訳(メタデータ) (2023-09-08T16:41:25Z) - Differentially-Private Data Synthetisation for Efficient Re-Identification Risk Control [3.8811062755861956]
$epsilon$-PrivateSMOTEは、再識別とリンケージ攻撃を防ぐためのテクニックである。
提案手法は,ノイズに起因した逆数による合成データ生成と,高リスクケースを難読化するための差分プライバシー原則を組み合わせたものである。
論文 参考訳(メタデータ) (2022-12-01T13:20:37Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Semantics-Preserved Distortion for Personal Privacy Protection in Information Management [65.08939490413037]
本稿では,意味的整合性を維持しつつテキストを歪ませる言語学的アプローチを提案する。
本稿では, 意味保存歪みの枠組みとして, 生成的アプローチと置換的アプローチの2つを提示する。
また、特定の医療情報管理シナリオにおけるプライバシ保護についても検討し、機密データの記憶を効果的に制限していることを示す。
論文 参考訳(メタデータ) (2022-01-04T04:01:05Z) - ADePT: Auto-encoder based Differentially Private Text Transformation [22.068984615657463]
自動エンコーダを用いたユーティリティ保存型差分プライベートテキスト変換アルゴリズムを提案する。
我々のアルゴリズムはテキストを変換し、攻撃に対して堅牢性を提供し、意味的品質の高い変換を生成する。
その結果,提案手法はMIA攻撃に対して有効であり,基礎となる変換プロセスの有用性は低下しないことがわかった。
論文 参考訳(メタデータ) (2021-01-29T23:15:24Z) - FLFE: A Communication-Efficient and Privacy-Preserving Federated Feature
Engineering Framework [16.049161581014513]
FLFEと呼ばれるフレームワークは、プライバシ保護と通信保護のための多人数機能変換を行う。
このフレームワークは機能のパターンを事前に学習し、ある機能における変換の有用性を直接判断する。
論文 参考訳(メタデータ) (2020-09-05T16:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。