論文の概要: A Comparative Study of Sequence Classification Models for Privacy Policy
Coverage Analysis
- arxiv url: http://arxiv.org/abs/2003.04972v1
- Date: Wed, 12 Feb 2020 21:46:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 18:44:41.983207
- Title: A Comparative Study of Sequence Classification Models for Privacy Policy
Coverage Analysis
- Title(参考訳): プライバシーポリシーカバレッジ分析のためのシーケンス分類モデルの比較検討
- Authors: Zachary Lindner
- Abstract要約: プライバシーポリシーは、ウェブサイトがユーザーのデータを収集、使用、配布する方法を記述する法的文書である。
私たちのソリューションは、さまざまな古典的な機械学習とディープラーニング技術を使用して、Webサイトのプライバシポリシのカバレッジ分析をユーザに提供することです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy policies are legal documents that describe how a website will
collect, use, and distribute a user's data. Unfortunately, such documents are
often overly complicated and filled with legal jargon; making it difficult for
users to fully grasp what exactly is being collected and why. Our solution to
this problem is to provide users with a coverage analysis of a given website's
privacy policy using a wide range of classical machine learning and deep
learning techniques. Given a website's privacy policy, the classifier
identifies the associated data practice for each logical segment. These data
practices/labels are taken directly from the OPP-115 corpus. For example, the
data practice "Data Retention" refers to how long a website stores a user's
information. The coverage analysis allows users to determine how many of the
ten possible data practices are covered, along with identifying the sections
that correspond to the data practices of particular interest.
- Abstract(参考訳): プライバシーポリシーは、ウェブサイトがユーザーのデータを収集、使用、配布する方法を記述する法的文書である。
残念なことに、このような文書は複雑すぎ、法的な用語で満たされていることが多いため、ユーザが正確に何が収集されているのか、なぜなのかを十分に理解することは困難である。
この問題に対する当社のソリューションは、さまざまな古典的な機械学習とディープラーニング技術を使用して、Webサイトのプライバシポリシのカバレッジ分析をユーザに提供することです。
ウェブサイトのプライバシーポリシーが与えられたら、分類器は論理セグメントごとに関連するデータプラクティスを特定する。
これらのデータプラクティス/ラベルは、OPP-115コーパスから直接取得される。
例えば、データ・プラクティスの"データ・リテンション"は、ウェブサイトがユーザーの情報をいつまで保存するかを示す。
カバレッジ分析により、ユーザーは特定の関心のあるデータプラクティスに対応するセクションを識別し、可能なデータプラクティスの10つのうち何つがカバーされているかを決定することができる。
関連論文リスト
- Automated Detection and Analysis of Data Practices Using A Real-World
Corpus [20.4572759138767]
プライバシポリシ内のデータプラクティスを,さまざまなレベルで詳細に識別し視覚化するための,自動アプローチを提案する。
提案手法は,データ実践記述とポリシー記述とを正確にマッチングし,ユーザへの簡易なプライバシ情報の提示を容易にする。
論文 参考訳(メタデータ) (2024-02-16T18:51:40Z) - FedDMF: Privacy-Preserving User Attribute Prediction using Deep Matrix
Factorization [1.9181612035055007]
本稿では,ユーザマッチングを必要とせず,ユーザの属性を予測する新しいアルゴリズムを提案する。
我々のアプローチは、異なるクライアント上で深い行列分解モデルを訓練し、属性項目ベクトルのみを共有することである。
これにより、ユーザベクトル自体を共有することなく、ユーザ属性を予測できます。
論文 参考訳(メタデータ) (2023-12-24T06:49:00Z) - Privacy-Aware Document Visual Question Answering [47.89754310347398]
Document Visual Question Answering (DocVQA)は、文書理解の急速に成長している分野である。
ドキュメントには機密情報や著作権情報が含まれているにもかかわらず、現在のDocVQAメソッドはいずれも強力なプライバシー保証を提供していない。
DocVQAで使用されるマルチモーダルLLMモデルの現状において、プライバシー問題を強調し、可能なソリューションを探究する。
論文 参考訳(メタデータ) (2023-12-15T06:30:55Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - PolicyGPT: Automated Analysis of Privacy Policies with Large Language
Models [41.969546784168905]
実際に使う場合、ユーザーは慎重に読むのではなく、Agreeボタンを直接クリックする傾向がある。
このプラクティスは、プライバシーの漏洩や法的問題のリスクにユーザをさらけ出す。
近年,ChatGPT や GPT-4 などの大規模言語モデル (LLM) が出現し,テキスト解析の新たな可能性が高まっている。
論文 参考訳(メタデータ) (2023-09-19T01:22:42Z) - Transparency in App Analytics: Analyzing the Collection of User
Interaction Data [0.0]
インタラクションデータ収集の一般的な実践を識別するために,Androidアプリの分析ライブラリのトップ20を分析した。
アプリのデータ収集プラクティスを要約するための標準化されたコレクションクレームテンプレートを開発した。
論文 参考訳(メタデータ) (2023-06-20T11:01:27Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Retrieval Enhanced Data Augmentation for Question Answering on Privacy
Policies [74.01792675564218]
本研究では,ラベルのないポリシー文書から関連するテキストセグメントを抽出する検索モデルに基づくデータ拡張フレームワークを開発する。
拡張データの多様性と品質を改善するために,複数の事前学習言語モデル(LM)を活用し,ノイズ低減フィルタモデルでそれらをカスケードする。
PrivacyQAベンチマークの強化データを使用して、既存のベースラインを大きなマージン(10% F1)に高め、新しい最先端のF1スコアを50%達成します。
論文 参考訳(メタデータ) (2022-04-19T15:45:23Z) - Intent Classification and Slot Filling for Privacy Policies [34.606121042708864]
PolicyIEは、ウェブサイトとモバイルアプリケーションの31のプライバシーポリシーにまたがる5,250の意図と11,788のスロットアノテーションからなるコーパスです。
本研究は,(1)連関タギングとして意図分類とスロット充填を定式化し,(2)シーケンス・ツー・シーケンス学習タスクとしてモデル化する,2つのニューラルネットワークアプローチをベースラインとして提案する。
論文 参考訳(メタデータ) (2021-01-01T00:44:41Z) - PolicyQA: A Reading Comprehension Dataset for Privacy Policies [77.79102359580702]
既存のWebサイトプライバシポリシ115のコーパスから算出した,25,017の理解スタイルの例を含むデータセットであるPolicyQAを提案する。
既存の2つのニューラルQAモデルを評価し、厳密な分析を行い、ポリシQAが提供する利点と課題を明らかにする。
論文 参考訳(メタデータ) (2020-10-06T09:04:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。