論文の概要: DP-Rewrite: Towards Reproducibility and Transparency in Differentially
Private Text Rewriting
- arxiv url: http://arxiv.org/abs/2208.10400v1
- Date: Mon, 22 Aug 2022 15:38:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 13:40:31.754358
- Title: DP-Rewrite: Towards Reproducibility and Transparency in Differentially
Private Text Rewriting
- Title(参考訳): dp-rewrite:差分プライベートテキスト書き換えにおける再現性と透明性に向けて
- Authors: Timour Igamberdiev, Thomas Arnold, Ivan Habernal
- Abstract要約: 本稿では,DP-Rewriteについて紹介する。
システムには、さまざまなダウンストリームデータセット、モデル、事前学習手順、評価指標が組み込まれています。
本稿では,ADePT DPテキスト書き換えシステムの事例研究として,事前学習アプローチにおけるプライバシー漏洩を検出する実験について述べる。
- 参考スコア(独自算出の注目度): 2.465904360857451
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Text rewriting with differential privacy (DP) provides concrete theoretical
guarantees for protecting the privacy of individuals in textual documents. In
practice, existing systems may lack the means to validate their
privacy-preserving claims, leading to problems of transparency and
reproducibility. We introduce DP-Rewrite, an open-source framework for
differentially private text rewriting which aims to solve these problems by
being modular, extensible, and highly customizable. Our system incorporates a
variety of downstream datasets, models, pre-training procedures, and evaluation
metrics to provide a flexible way to lead and validate private text rewriting
research. To demonstrate our software in practice, we provide a set of
experiments as a case study on the ADePT DP text rewriting system, detecting a
privacy leak in its pre-training approach. Our system is publicly available,
and we hope that it will help the community to make DP text rewriting research
more accessible and transparent.
- Abstract(参考訳): 差分プライバシー(DP)によるテキスト書き換えは、テキスト文書中の個人のプライバシーを保護するための具体的な理論的保証を提供する。
実際には、既存のシステムはプライバシを保護するクレームを検証する手段を欠いている可能性があり、透明性と再現性の問題に繋がる。
dp-rewriteは,モジュール性,拡張性,高度にカスタマイズ可能な,プライベートなテキスト書き換えのためのオープンソースフレームワークである。
本システムでは,様々なダウンストリームデータセット,モデル,事前学習手順,評価指標を組み込んで,プライベートテキスト書き換え研究をリードし,検証するためのフレキシブルな方法を提供する。
本研究では,本ソフトウェアを実演するために,ADePT DPテキスト書き換えシステムのケーススタディとして,事前学習アプローチにおけるプライバシリークを検出する実験を行った。
我々のシステムは公開されており、コミュニティがDPテキストの書き直し研究をよりアクセスしやすく透明にすることを願っている。
関連論文リスト
- NeurIPS 2023 Competition: Privacy Preserving Federated Learning Document VQA [49.74911193222192]
このコンペティションでは、関連する質問や回答とともに、本物の請求書文書のデータセットが導入された。
ベースモデルは多モード生成言語モデルであり、視覚的またはテキスト的入力モダリティによってセンシティブな情報を公開することができる。
参加者は最小限の効用閾値を維持しながら通信コストを削減するエレガントなソリューションを提案した。
論文 参考訳(メタデータ) (2024-11-06T07:51:19Z) - Thinking Outside of the Differential Privacy Box: A Case Study in Text Privatization with Language Model Prompting [3.3916160303055567]
我々は、差別化プライバシ(DP)統合が課す制約について議論するとともに、そのような制限がもたらす課題を明らかにします。
以上の結果から,NLPにおけるDPのユーザビリティと非DPアプローチに対するメリットについて,さらなる議論の必要性が示唆された。
論文 参考訳(メタデータ) (2024-10-01T14:46:15Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Just Rewrite It Again: A Post-Processing Method for Enhanced Semantic Similarity and Privacy Preservation of Differentially Private Rewritten Text [3.3916160303055567]
本稿では,書き直したテキストを元のテキストと整合させることを目標とした,簡単な後処理手法を提案する。
以上の結果から,このような手法は,従来の入力よりも意味論的に類似した出力を生成するだけでなく,経験的プライバシ評価において平均的なスコアがよいテキストを生成することが示唆された。
論文 参考訳(メタデータ) (2024-05-30T08:41:33Z) - RELIC: Investigating Large Language Model Responses using Self-Consistency [58.63436505595177]
LLM(Large Language Models)は、フィクションと事実を混同し、幻覚として知られる非事実コンテンツを生成することで有名である。
本稿では,ユーザが生成したテキストの信頼性を把握できる対話型システムを提案する。
論文 参考訳(メタデータ) (2023-11-28T14:55:52Z) - InferDPT: Privacy-Preserving Inference for Black-box Large Language Model [66.07752875835506]
InferDPTは、ブラックボックスLSMのプライバシ保護推論のための最初の実用的なフレームワークである。
RANTEXTはInferDPTの摂動モジュールに組み込まれた新しい微分プライバシー機構である。
論文 参考訳(メタデータ) (2023-10-18T18:00:11Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - DP-BART for Privatized Text Rewriting under Local Differential Privacy [2.45626162429986]
本稿では,既存の LDP システムに大きく勝る新システム "DP-BART" を提案する。
提案手法では,新たなクリッピング手法,反復的プルーニング,およびDP保証に必要なノイズを劇的に低減する内部表現の訓練を用いる。
論文 参考訳(メタデータ) (2023-02-15T13:07:34Z) - How reparametrization trick broke differentially-private text
representation leaning [2.45626162429986]
差分プライバシーは、NLPにおけるプライバシ保護手法に対するお気に入りのアプローチの1つである。
その単純さにもかかわらず、NLPに適用するときに正しく行うのは簡単ではないように思える。
私たちの主な目標は、認識を高め、コミュニティがテキスト表現学習に差分プライバシーを適用する際の潜在的な落とし穴を理解するのを支援することです。
論文 参考訳(メタデータ) (2022-02-24T15:02:42Z) - Differentially Private Representation for NLP: Formal Guarantee and An
Empirical Study on Privacy and Fairness [38.90014773292902]
深層モデルで学習した隠れ表現が、入力のプライベート情報を符号化できることが示されている。
テキストから抽出した表現のプライバシを保護するために,DPNR(differially Private Neural Representation)を提案する。
論文 参考訳(メタデータ) (2020-10-03T05:58:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。