論文の概要: Differential Privacy in Natural Language Processing: The Story So Far
- arxiv url: http://arxiv.org/abs/2208.08140v1
- Date: Wed, 17 Aug 2022 08:15:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 12:38:18.112641
- Title: Differential Privacy in Natural Language Processing: The Story So Far
- Title(参考訳): 自然言語処理におけるディファレンシャルプライバシ - これまでの話
- Authors: Oleksandra Klymenko, Stephen Meisenbacher, Florian Matthes
- Abstract要約: 本稿では,差分プライバシーが抱える脆弱性を要約することを目的とする。
このトピックは、NLPメソッドに差別的プライバシを適用するにはどうすればよいのか、という1つの基本的な目標にまとめられている、新しい研究のきっかけとなった。
- 参考スコア(独自算出の注目度): 21.844047604993687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the tide of Big Data continues to influence the landscape of Natural
Language Processing (NLP), the utilization of modern NLP methods has grounded
itself in this data, in order to tackle a variety of text-based tasks. These
methods without a doubt can include private or otherwise personally
identifiable information. As such, the question of privacy in NLP has gained
fervor in recent years, coinciding with the development of new
Privacy-Enhancing Technologies (PETs). Among these PETs, Differential Privacy
boasts several desirable qualities in the conversation surrounding data
privacy. Naturally, the question becomes whether Differential Privacy is
applicable in the largely unstructured realm of NLP. This topic has sparked
novel research, which is unified in one basic goal: how can one adapt
Differential Privacy to NLP methods? This paper aims to summarize the
vulnerabilities addressed by Differential Privacy, the current thinking, and
above all, the crucial next steps that must be considered.
- Abstract(参考訳): ビッグデータの潮流が自然言語処理(NLP)の景観に影響を与え続けている中、現代のNLP手法の利用は、様々なテキストベースのタスクに取り組むために、このデータに根ざしている。
これらの方法は、疑う余地なく、個人または個人を特定する情報を含むことができる。
このように、NLPのプライバシに関する問題は近年、新しいプライバシ・エンハンシング・テクノロジー(PET)の開発に端を発して、確固たるものになっている。
これらのPETの中で、差分プライバシーはデータプライバシーを取り巻く会話においていくつかの望ましい性質を持っている。
当然、NLPのほとんど構造化されていない領域で微分プライバシーが適用できるかどうかが問題となる。
このトピックは、NLPメソッドに差別的プライバシを適用するにはどうすればよいのか?
本稿では,ディファレンシャルプライバシが対処する脆弱性,現在の考え方,そして何よりも考慮すべき重要な次のステップを要約することを目的とする。
関連論文リスト
- Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Differentially Private Natural Language Models: Recent Advances and
Future Directions [25.6006170131504]
微分プライバシー(DP)は、プライベートデータ分析のデファクト技術になりつつある。
本稿では,NLPにおけるDP深層学習モデルの最近の進歩を,初めて体系的に検討する。
論文 参考訳(メタデータ) (2023-01-22T12:29:03Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - How to keep text private? A systematic review of deep learning methods
for privacy-preserving natural language processing [0.38073142980732994]
記事は2016年から2020年にかけて発行されたプライバシー保護NLPに関する60以上の方法を体系的にレビューしている。
本稿では,既存の手法を3つのカテゴリに分類する新しい分類法を提案する。
我々は、データトレーサビリティ、オーバーヘッドデータセットサイズ、埋め込みにおける人間のバイアスの頻度に関するプライバシー保護NLPのオープンな課題について論じる。
論文 参考訳(メタデータ) (2022-05-20T11:29:44Z) - Privacy-Adaptive BERT for Natural Language Understanding [20.821155542969947]
BERTを用いたローカルプライバシ設定下でのNLUモデルの有効性向上について検討する。
本稿では,プライバシ対応lmプリトレーニング手法を提案し,民営化テキスト入力におけるモデル性能を大幅に向上できることを実証する。
論文 参考訳(メタデータ) (2021-04-15T15:01:28Z) - ADePT: Auto-encoder based Differentially Private Text Transformation [22.068984615657463]
自動エンコーダを用いたユーティリティ保存型差分プライベートテキスト変換アルゴリズムを提案する。
我々のアルゴリズムはテキストを変換し、攻撃に対して堅牢性を提供し、意味的品質の高い変換を生成する。
その結果,提案手法はMIA攻撃に対して有効であり,基礎となる変換プロセスの有用性は低下しないことがわかった。
論文 参考訳(メタデータ) (2021-01-29T23:15:24Z) - Beyond The Text: Analysis of Privacy Statements through Syntactic and
Semantic Role Labeling [12.74252812104216]
本稿では,プライバシポリシからコンテキスト整合性(Contextual Integrity)のレンズを通じて,プライバシパラメータを抽出する新たなタスクを定式化する。
最近提案された質問応答に基づくソリューションを含む従来のNLPタスクは、プライバシパラメータ抽出の問題に対処するには不十分であることを示す。
論文 参考訳(メタデータ) (2020-10-01T20:48:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。