論文の概要: Beyond The Text: Analysis of Privacy Statements through Syntactic and
Semantic Role Labeling
- arxiv url: http://arxiv.org/abs/2010.00678v1
- Date: Thu, 1 Oct 2020 20:48:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 08:28:34.888942
- Title: Beyond The Text: Analysis of Privacy Statements through Syntactic and
Semantic Role Labeling
- Title(参考訳): テキストを超えて: 構文と意味的役割ラベルによるプライバシー文書の分析
- Authors: Yan Shvartzshnaider, Ananth Balashankar, Vikas Patidar, Thomas Wies,
Lakshminarayanan Subramanian
- Abstract要約: 本稿では,プライバシポリシからコンテキスト整合性(Contextual Integrity)のレンズを通じて,プライバシパラメータを抽出する新たなタスクを定式化する。
最近提案された質問応答に基づくソリューションを含む従来のNLPタスクは、プライバシパラメータ抽出の問題に対処するには不十分であることを示す。
- 参考スコア(独自算出の注目度): 12.74252812104216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper formulates a new task of extracting privacy parameters from a
privacy policy, through the lens of Contextual Integrity, an established social
theory framework for reasoning about privacy norms. Privacy policies, written
by lawyers, are lengthy and often comprise incomplete and vague statements. In
this paper, we show that traditional NLP tasks, including the recently proposed
Question-Answering based solutions, are insufficient to address the privacy
parameter extraction problem and provide poor precision and recall. We describe
4 different types of conventional methods that can be partially adapted to
address the parameter extraction task with varying degrees of success: Hidden
Markov Models, BERT fine-tuned models, Dependency Type Parsing (DP) and
Semantic Role Labeling (SRL). Based on a detailed evaluation across 36
real-world privacy policies of major enterprises, we demonstrate that a
solution combining syntactic DP coupled with type-specific SRL tasks provides
the highest accuracy for retrieving contextual privacy parameters from privacy
statements. We also observe that incorporating domain-specific knowledge is
critical to achieving high precision and recall, thus inspiring new NLP
research to address this important problem in the privacy domain.
- Abstract(参考訳): 本稿では、プライバシー規範を推論するための確立された社会理論フレームワークであるContextual Integrityのレンズを通して、プライバシポリシーからプライバシパラメータを抽出する新しいタスクを定式化する。
弁護士によって書かれたプライバシーポリシーは長く、しばしば不完全で曖昧な声明で構成されている。
本稿では,最近提案された質問応答に基づくソリューションを含む従来のNLPタスクが,プライバシパラメータ抽出問題に対処するには不十分であり,精度やリコールが不十分であることを示す。
本稿では,隠れマルコフモデル,bert微調整モデル,依存型解析 (dp) および意味的ロールラベリング (srl) の4種類の手法について述べる。
企業における36の現実のプライバシポリシに対する詳細な評価に基づいて,タイプ固有のSRLタスクと組み合わせた構文DPを組み合わせることで,プライバシステートメントからコンテキストプライバシパラメータを取得する上で,最も高い精度が得られることを示す。
また、ドメイン固有の知識を組み込むことは、高い精度とリコールを達成する上で重要であることも観察し、プライバシドメインにおけるこの重要な問題に対処するための新しいnlp研究に刺激を与える。
関連論文リスト
- PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Private Optimal Inventory Policy Learning for Feature-based Newsvendor with Unknown Demand [13.594765018457904]
本稿では, f-differential privacy framework内で, プライバシ保護に最適な在庫ポリシーを推定するための新しいアプローチを提案する。
最適在庫推定のための畳み込み平滑化に基づくクリップ付き雑音勾配降下アルゴリズムを開発した。
提案手法は,コストを極端に増大させることなく,望ましいプライバシー保護を実現することができることを示す。
論文 参考訳(メタデータ) (2024-04-23T19:15:43Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - DP-BART for Privatized Text Rewriting under Local Differential Privacy [2.45626162429986]
本稿では,既存の LDP システムに大きく勝る新システム "DP-BART" を提案する。
提案手法では,新たなクリッピング手法,反復的プルーニング,およびDP保証に必要なノイズを劇的に低減する内部表現の訓練を用いる。
論文 参考訳(メタデータ) (2023-02-15T13:07:34Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - ADePT: Auto-encoder based Differentially Private Text Transformation [22.068984615657463]
自動エンコーダを用いたユーティリティ保存型差分プライベートテキスト変換アルゴリズムを提案する。
我々のアルゴリズムはテキストを変換し、攻撃に対して堅牢性を提供し、意味的品質の高い変換を生成する。
その結果,提案手法はMIA攻撃に対して有効であり,基礎となる変換プロセスの有用性は低下しないことがわかった。
論文 参考訳(メタデータ) (2021-01-29T23:15:24Z) - Differentially Private Representation for NLP: Formal Guarantee and An
Empirical Study on Privacy and Fairness [38.90014773292902]
深層モデルで学習した隠れ表現が、入力のプライベート情報を符号化できることが示されている。
テキストから抽出した表現のプライバシを保護するために,DPNR(differially Private Neural Representation)を提案する。
論文 参考訳(メタデータ) (2020-10-03T05:58:32Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。