論文の概要: Automating Governing Knowledge Commons and Contextual Integrity (GKC-CI) Privacy Policy Annotations with Large Language Models
- arxiv url: http://arxiv.org/abs/2311.02192v2
- Date: Fri, 23 Aug 2024 03:28:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-26 20:18:44.212377
- Title: Automating Governing Knowledge Commons and Contextual Integrity (GKC-CI) Privacy Policy Annotations with Large Language Models
- Title(参考訳): 言語モデルを用いた知識コモンズとコンテキスト統合(GKC-CI)プライバシポリシアノテーションの自動化
- Authors: Jake Chanenson, Madison Pickering, Noah Apthorpe,
- Abstract要約: 本稿では,大規模言語モデルを用いて高精度なGKC-CIパラメータアノテーションを自動実行できることを実証する。
我々は16の根拠となる真実のプライバシポリシから,21,588 GKC-CIアノテーション上で,50のオープンソースおよびプロプライエタリなモデルを精査する。
私たちの最高のパフォーマンスモデルは90.65%の精度で、同じタスクのエキスパートの精度に匹敵する。
- 参考スコア(独自算出の注目度): 0.9217021281095907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying contextual integrity (CI) and governing knowledge commons (GKC) parameters in privacy policy texts can facilitate normative privacy analysis. However, GKC-CI annotation has heretofore required manual or crowdsourced effort. This paper demonstrates that high-accuracy GKC-CI parameter annotation of privacy policies can be performed automatically using large language models. We fine-tune 50 open-source and proprietary models on 21,588 GKC-CI annotations from 16 ground truth privacy policies. Our best performing model has an accuracy of 90.65%, which is comparable to the accuracy of experts on the same task. We apply our best performing model to 456 privacy policies from a variety of online services, demonstrating the effectiveness of scaling GKC-CI annotation for privacy policy exploration and analysis. We publicly release our model training code, training and testing data, an annotation visualizer, and all annotated policies for future GKC-CI research.
- Abstract(参考訳): プライバシーポリシーテキストにおける文脈整合性(CI)と知識共通性(GKC)パラメータの同定は、規範的プライバシー分析を促進する。
しかし、GKC-CIアノテーションは、これまで手動やクラウドソースの作業を必要としていた。
本稿では,大規模言語モデルを用いて,プライバシーポリシーの高精度なGKC-CIパラメータアノテーションを自動実行できることを実証する。
我々は16の根拠となる真実のプライバシポリシから,21,588 GKC-CIアノテーション上で,50のオープンソースおよびプロプライエタリなモデルを精査する。
私たちの最高のパフォーマンスモデルは90.65%の精度で、同じタスクのエキスパートの精度に匹敵する。
各種オンラインサービスから456のプライバシポリシにベストパフォーマンスモデルを適用し,プライバシポリシ探索と分析のためのGKC-CIアノテーションのスケーリングの有効性を実証した。
私たちは、モデルトレーニングコード、トレーニングとテストデータ、アノテーションビジュアライザ、そして将来のGKC-CI研究のためのすべての注釈付きポリシーを公開しています。
関連論文リスト
- A BERT-based Empirical Study of Privacy Policies' Compliance with GDPR [9.676166100354282]
本研究は,5Gネットワークにおけるプライバシポリシ間のコンプライアンス分析の課題を解決することを目的とする。
約70のMNOから手動でプライバシポリシを収集し,BERTベースの自動モデルを用いて分類を行った。
さらに,5Gネットワークにおけるプライバシポリシの可読性に関する実証的証拠を初めて提示する。
論文 参考訳(メタデータ) (2024-07-09T11:47:52Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - PolicyGPT: Automated Analysis of Privacy Policies with Large Language
Models [41.969546784168905]
実際に使う場合、ユーザーは慎重に読むのではなく、Agreeボタンを直接クリックする傾向がある。
このプラクティスは、プライバシーの漏洩や法的問題のリスクにユーザをさらけ出す。
近年,ChatGPT や GPT-4 などの大規模言語モデル (LLM) が出現し,テキスト解析の新たな可能性が高まっている。
論文 参考訳(メタデータ) (2023-09-19T01:22:42Z) - SeePrivacy: Automated Contextual Privacy Policy Generation for Mobile
Applications [21.186902172367173]
SeePrivacyは、モバイルアプリのコンテキストプライバシポリシを自動的に生成するように設計されている。
本手法は,モバイルGUI理解とプライバシポリシ文書解析を相乗的に組み合わせた手法である。
検索されたポリシーセグメントの96%は、そのコンテキストと正しく一致させることができる。
論文 参考訳(メタデータ) (2023-07-04T12:52:45Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - AI-enabled Automation for Completeness Checking of Privacy Policies [7.707284039078785]
ヨーロッパでは、プライバシーポリシーは一般データ保護規則に準拠する。
本稿では,プライバシーポリシーの完全性チェックのためのAIベースの自動化を提案する。
論文 参考訳(メタデータ) (2021-06-10T12:10:51Z) - Privacy-Preserving Graph Convolutional Networks for Text Classification [3.5503507997334958]
グラフ畳み込みネットワーク(GCN)は、グラフとして自然に発生する文書の表現学習と予測のための強力なアーキテクチャです。
人々のプロフィールや関係をエッジとして文書などの機密情報を含むデータは、GCNからのプライバシーリークを起こしやすいです。
プライバシーを守ったGCNは、非プライベートバリアントの90%まで性能を発揮し、強力なプライバシー対策を正式に保証しています。
論文 参考訳(メタデータ) (2021-02-10T15:27:38Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。