論文の概要: Compliance Checking with NLI: Privacy Policies vs. Regulations
- arxiv url: http://arxiv.org/abs/2204.01845v1
- Date: Tue, 1 Mar 2022 17:27:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 09:56:17.166865
- Title: Compliance Checking with NLI: Privacy Policies vs. Regulations
- Title(参考訳): nliによるコンプライアンスチェック: プライバシーポリシーと規制
- Authors: Amin Rabinia and Zane Nygaard
- Abstract要約: 我々は、自然言語推論技術を用いて、大企業の選択したプライバシーポリシーのセクションとプライバシー規制を比較します。
本モデルでは,BiLSTMのアテンション機構とともに,事前学習した埋め込みを用いている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A privacy policy is a document that states how a company intends to handle
and manage their customers' personal data. One of the problems that arises with
these privacy policies is that their content might violate data privacy
regulations. Because of the enormous number of privacy policies that exist, the
only realistic way to check for legal inconsistencies in all of them is through
an automated method. In this work, we use Natural Language Inference (NLI)
techniques to compare privacy regulations against sections of privacy policies
from a selection of large companies. Our NLI model uses pre-trained embeddings,
along with BiLSTM in its attention mechanism. We tried two versions of our
model: one that was trained on the Stanford Natural Language Inference (SNLI)
and the second on the Multi-Genre Natural Language Inference (MNLI) dataset. We
found that our test accuracy was higher on our model trained on the SNLI, but
when actually doing NLI tasks on real world privacy policies, the model trained
on MNLI generalized and performed much better.
- Abstract(参考訳): プライバシポリシ(privacy policy)とは、企業が顧客の個人情報の扱いや管理を意図した文書である。
こうしたプライバシーポリシーで生じる問題の一つは、コンテンツがデータプライバシー規則に違反する可能性があることだ。
膨大な数のプライバシーポリシーが存在するため、法律上の不整合をチェックする唯一の現実的な方法は、自動化された方法である。
この研究では、自然言語推論(nli)技術を用いて、大企業の選択によるプライバシーポリシーのセクションとプライバシー規制を比較します。
我々のNLIモデルは、BiLSTMとともに、事前訓練された埋め込みを使用する。
1つはStanford Natural Language Inference(SNLI)で、もう1つはMNLI(Multi-Genre Natural Language Inference)データセットで、もう1つはStanford Natural Language Inference(SNLI)でトレーニングされました。
SNLIでトレーニングしたモデルでは,テスト精度が高いことが分かりましたが,現実のプライバシポリシでNLIタスクを行う場合には,MNLIでトレーニングしたモデルを一般化して,より優れたパフォーマンスを実現しています。
関連論文リスト
- PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - The Privacy Policy Permission Model: A Unified View of Privacy Policies [0.5371337604556311]
プライバシポリシ(英: privacy policy)とは、組織がどのようにクライアントのデータを収集し、利用し、開示し、保持するかを指定するステートメントのセットである。
ほとんどのプライバシポリシには、データプロバイダの情報の使用方法に関する明確で完全な説明が欠けている。
本稿では,プライバシーポリシーの統一的かつ理解しやすい表現を提供するプライバシポリシ許可モデル(PPPM)を提案する。
論文 参考訳(メタデータ) (2024-03-26T06:12:38Z) - DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt Engineer [57.04801796205638]
大きな言語モデル(LLM)は、様々なタスクのための支配的なツールとして現れています。
しかし、データプライバシに関する懸念は、調整されたプロンプトが機密情報に依存しているため、障害となる。
本稿では,DP-OPT(Dis Differentially-Private Offsite Prompt Tuning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T02:01:10Z) - PrivLM-Bench: A Multi-level Privacy Evaluation Benchmark for Language Models [42.20437015301152]
言語モデル(LM)のプライバシー漏洩を評価するベンチマークであるPrivLM-Benchを提案する。
DPパラメータのみを報告するのではなく、PrivLM-Benchは実際の使用中に無視された推論データのプライバシに光を当てる。
メインストリームLMのためのGLUEの3つのデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-11-07T14:55:52Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - PolicyGPT: Automated Analysis of Privacy Policies with Large Language
Models [41.969546784168905]
実際に使う場合、ユーザーは慎重に読むのではなく、Agreeボタンを直接クリックする傾向がある。
このプラクティスは、プライバシーの漏洩や法的問題のリスクにユーザをさらけ出す。
近年,ChatGPT や GPT-4 などの大規模言語モデル (LLM) が出現し,テキスト解析の新たな可能性が高まっている。
論文 参考訳(メタデータ) (2023-09-19T01:22:42Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Privacy-Adaptive BERT for Natural Language Understanding [20.821155542969947]
BERTを用いたローカルプライバシ設定下でのNLUモデルの有効性向上について検討する。
本稿では,プライバシ対応lmプリトレーニング手法を提案し,民営化テキスト入力におけるモデル性能を大幅に向上できることを実証する。
論文 参考訳(メタデータ) (2021-04-15T15:01:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。