論文の概要: DP-Rewrite: Towards Reproducibility and Transparency in Differentially
Private Text Rewriting
- arxiv url: http://arxiv.org/abs/2208.10400v1
- Date: Mon, 22 Aug 2022 15:38:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 13:40:31.754358
- Title: DP-Rewrite: Towards Reproducibility and Transparency in Differentially
Private Text Rewriting
- Title(参考訳): dp-rewrite:差分プライベートテキスト書き換えにおける再現性と透明性に向けて
- Authors: Timour Igamberdiev, Thomas Arnold, Ivan Habernal
- Abstract要約: 本稿では,DP-Rewriteについて紹介する。
システムには、さまざまなダウンストリームデータセット、モデル、事前学習手順、評価指標が組み込まれています。
本稿では,ADePT DPテキスト書き換えシステムの事例研究として,事前学習アプローチにおけるプライバシー漏洩を検出する実験について述べる。
- 参考スコア(独自算出の注目度): 2.465904360857451
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Text rewriting with differential privacy (DP) provides concrete theoretical
guarantees for protecting the privacy of individuals in textual documents. In
practice, existing systems may lack the means to validate their
privacy-preserving claims, leading to problems of transparency and
reproducibility. We introduce DP-Rewrite, an open-source framework for
differentially private text rewriting which aims to solve these problems by
being modular, extensible, and highly customizable. Our system incorporates a
variety of downstream datasets, models, pre-training procedures, and evaluation
metrics to provide a flexible way to lead and validate private text rewriting
research. To demonstrate our software in practice, we provide a set of
experiments as a case study on the ADePT DP text rewriting system, detecting a
privacy leak in its pre-training approach. Our system is publicly available,
and we hope that it will help the community to make DP text rewriting research
more accessible and transparent.
- Abstract(参考訳): 差分プライバシー(DP)によるテキスト書き換えは、テキスト文書中の個人のプライバシーを保護するための具体的な理論的保証を提供する。
実際には、既存のシステムはプライバシを保護するクレームを検証する手段を欠いている可能性があり、透明性と再現性の問題に繋がる。
dp-rewriteは,モジュール性,拡張性,高度にカスタマイズ可能な,プライベートなテキスト書き換えのためのオープンソースフレームワークである。
本システムでは,様々なダウンストリームデータセット,モデル,事前学習手順,評価指標を組み込んで,プライベートテキスト書き換え研究をリードし,検証するためのフレキシブルな方法を提供する。
本研究では,本ソフトウェアを実演するために,ADePT DPテキスト書き換えシステムのケーススタディとして,事前学習アプローチにおけるプライバシリークを検出する実験を行った。
我々のシステムは公開されており、コミュニティがDPテキストの書き直し研究をよりアクセスしやすく透明にすることを願っている。
関連論文リスト
- LLM-based Privacy Data Augmentation Guided by Knowledge Distillation
with a Distribution Tutor for Medical Text Classification [67.92145284679623]
ノイズの多いプライベートディストリビューションをモデル化し,プライバシコストの低いサンプル生成を制御するDPベースのチュータを提案する。
理論的には、モデルのプライバシ保護を分析し、モデルを実証的に検証する。
論文 参考訳(メタデータ) (2024-02-26T11:52:55Z) - RELIC: Investigating Large Language Model Responses using
Self-Consistency [60.448187967673036]
LLM(Large Language Models)は、フィクションと事実を混同し、幻覚として知られる非事実コンテンツを生成することで有名である。
本稿では,ユーザが生成したテキストの信頼性に関する洞察を得るのに役立つ対話型システムを提案する。
論文 参考訳(メタデータ) (2023-11-28T14:55:52Z) - DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt
Engineer [60.44898240755332]
大きな言語モデル(LLM)は、様々なタスクのための支配的なツールとして現れています。
しかし、データプライバシに関する懸念は、調整されたプロンプトが機密情報に依存しているため、障害となる。
本稿では,DP-OPT(Dis Differentially-Private Offsite Prompt Tuning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T02:01:10Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - DP-BART for Privatized Text Rewriting under Local Differential Privacy [2.45626162429986]
本稿では,既存の LDP システムに大きく勝る新システム "DP-BART" を提案する。
提案手法では,新たなクリッピング手法,反復的プルーニング,およびDP保証に必要なノイズを劇的に低減する内部表現の訓練を用いる。
論文 参考訳(メタデータ) (2023-02-15T13:07:34Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - How reparametrization trick broke differentially-private text
representation leaning [2.45626162429986]
差分プライバシーは、NLPにおけるプライバシ保護手法に対するお気に入りのアプローチの1つである。
その単純さにもかかわらず、NLPに適用するときに正しく行うのは簡単ではないように思える。
私たちの主な目標は、認識を高め、コミュニティがテキスト表現学習に差分プライバシーを適用する際の潜在的な落とし穴を理解するのを支援することです。
論文 参考訳(メタデータ) (2022-02-24T15:02:42Z) - Semantics-Preserved Distortion for Personal Privacy Protection [48.69930912510414]
クライアントデバイスでは、ユーザによって毎日、個人情報を含む大量のテキストが生成される。
フェデレートラーニング(Federated Learning)では、クライアントデバイスの生の情報から中心モデルをブロックする多くの方法が提案されている。
本稿では,意味を保ちながらテキストを歪ませることで,より言語的にこれを行おうとする。
論文 参考訳(メタデータ) (2022-01-04T04:01:05Z) - Interpretable Privacy Preservation of Text Representations Using Vector
Steganography [0.0]
言語モデル(LM)が生成する文脈表現は、トレーニングコーパスに存在する刺激的な関連を学習する。
敵はこれらの関連を利用して、コーパス内で言及されるエンティティのプライベート属性をリバースエンジニアリングすることができる。
本研究の目的は, ベクトル幾何学にステガノグラフィーを組み込んで, 基礎となるスプリアス結合を解き明かす手法を研究・開発することである。
論文 参考訳(メタデータ) (2021-12-05T12:42:40Z) - CAPE: Context-Aware Private Embeddings for Private Language Learning [0.5156484100374058]
Context-Aware Private Embeddings (CAPE)は、埋め込みのトレーニング中にプライバシを保存する新しいアプローチである。
CAPEはディファレンシャルプライバシを通じて校正ノイズを適用し、機密情報を隠蔽しながらエンコードされたセマンティックリンクを保存する。
実験結果から,提案手法は単一介入よりも情報漏洩を低減させることが示された。
論文 参考訳(メタデータ) (2021-08-27T14:50:12Z) - Differentially Private Representation for NLP: Formal Guarantee and An
Empirical Study on Privacy and Fairness [38.90014773292902]
深層モデルで学習した隠れ表現が、入力のプライベート情報を符号化できることが示されている。
テキストから抽出した表現のプライバシを保護するために,DPNR(differially Private Neural Representation)を提案する。
論文 参考訳(メタデータ) (2020-10-03T05:58:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。