論文の概要: Compliance Checking with NLI: Privacy Policies vs. Regulations
- arxiv url: http://arxiv.org/abs/2204.01845v1
- Date: Tue, 1 Mar 2022 17:27:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 09:56:17.166865
- Title: Compliance Checking with NLI: Privacy Policies vs. Regulations
- Title(参考訳): nliによるコンプライアンスチェック: プライバシーポリシーと規制
- Authors: Amin Rabinia and Zane Nygaard
- Abstract要約: 我々は、自然言語推論技術を用いて、大企業の選択したプライバシーポリシーのセクションとプライバシー規制を比較します。
本モデルでは,BiLSTMのアテンション機構とともに,事前学習した埋め込みを用いている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A privacy policy is a document that states how a company intends to handle
and manage their customers' personal data. One of the problems that arises with
these privacy policies is that their content might violate data privacy
regulations. Because of the enormous number of privacy policies that exist, the
only realistic way to check for legal inconsistencies in all of them is through
an automated method. In this work, we use Natural Language Inference (NLI)
techniques to compare privacy regulations against sections of privacy policies
from a selection of large companies. Our NLI model uses pre-trained embeddings,
along with BiLSTM in its attention mechanism. We tried two versions of our
model: one that was trained on the Stanford Natural Language Inference (SNLI)
and the second on the Multi-Genre Natural Language Inference (MNLI) dataset. We
found that our test accuracy was higher on our model trained on the SNLI, but
when actually doing NLI tasks on real world privacy policies, the model trained
on MNLI generalized and performed much better.
- Abstract(参考訳): プライバシポリシ(privacy policy)とは、企業が顧客の個人情報の扱いや管理を意図した文書である。
こうしたプライバシーポリシーで生じる問題の一つは、コンテンツがデータプライバシー規則に違反する可能性があることだ。
膨大な数のプライバシーポリシーが存在するため、法律上の不整合をチェックする唯一の現実的な方法は、自動化された方法である。
この研究では、自然言語推論(nli)技術を用いて、大企業の選択によるプライバシーポリシーのセクションとプライバシー規制を比較します。
我々のNLIモデルは、BiLSTMとともに、事前訓練された埋め込みを使用する。
1つはStanford Natural Language Inference(SNLI)で、もう1つはMNLI(Multi-Genre Natural Language Inference)データセットで、もう1つはStanford Natural Language Inference(SNLI)でトレーニングされました。
SNLIでトレーニングしたモデルでは,テスト精度が高いことが分かりましたが,現実のプライバシポリシでNLIタスクを行う場合には,MNLIでトレーニングしたモデルを一般化して,より優れたパフォーマンスを実現しています。
関連論文リスト
- Differentially Private Model-Based Offline Reinforcement Learning [51.1231068185106]
DP-MORLは差分プライバシーを保証するアルゴリズムである。
環境のプライベートモデルは、まずオフラインデータから学習される。
次に、モデルベースのポリシー最適化を使用して、プライベートモデルからポリシーを導出します。
論文 参考訳(メタデータ) (2024-02-08T10:05:11Z) - DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt
Engineer [60.44898240755332]
大きな言語モデル(LLM)は、様々なタスクのための支配的なツールとして現れています。
しかし、データプライバシに関する懸念は、調整されたプロンプトが機密情報に依存しているため、障害となる。
本稿では,DP-OPT(Dis Differentially-Private Offsite Prompt Tuning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T02:01:10Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models
via Contextual Integrity Theory [86.8514623654506]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - PolicyGPT: Automated Analysis of Privacy Policies with Large Language
Models [41.969546784168905]
実際に使う場合、ユーザーは慎重に読むのではなく、Agreeボタンを直接クリックする傾向がある。
このプラクティスは、プライバシーの漏洩や法的問題のリスクにユーザをさらけ出す。
近年,ChatGPT や GPT-4 などの大規模言語モデル (LLM) が出現し,テキスト解析の新たな可能性が高まっている。
論文 参考訳(メタデータ) (2023-09-19T01:22:42Z) - Privacy Implications of Retrieval-Based Language Models [26.87950501433784]
本稿では,検索に基づくLM,特に$k$NN-LMにおけるプライバシリスクに関する最初の研究について述べる。
パラメトリックモデルよりも、$k$NN-LMsの方がプライベートデータストアから個人情報をリークする可能性が高いことがわかりました。
論文 参考訳(メタデータ) (2023-05-24T08:37:27Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z) - Selective Differential Privacy for Language Modeling [36.64464956102432]
これまでの研究は、RNNベースの言語モデルを異なるプライバシ保証でトレーニングすることで、この問題に対処しようとしてきた。
我々は、データの機密部分に対して厳密なプライバシー保証を提供するために、新しいプライバシー概念、選択的差分プライバシーを提案する。
言語モデリングとダイアログシステム構築の実験は、提案したプライバシー保護機構がより良いユーティリティを実現することを示す。
論文 参考訳(メタデータ) (2021-08-30T01:11:10Z) - Privacy-Adaptive BERT for Natural Language Understanding [20.821155542969947]
BERTを用いたローカルプライバシ設定下でのNLUモデルの有効性向上について検討する。
本稿では,プライバシ対応lmプリトレーニング手法を提案し,民営化テキスト入力におけるモデル性能を大幅に向上できることを実証する。
論文 参考訳(メタデータ) (2021-04-15T15:01:28Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。