論文の概要: Understanding Privacy Norms through Web Forms
- arxiv url: http://arxiv.org/abs/2408.16304v1
- Date: Thu, 29 Aug 2024 07:11:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-30 14:43:40.486202
- Title: Understanding Privacy Norms through Web Forms
- Title(参考訳): Webフォームによるプライバシノームの理解
- Authors: Hao Cui, Rahmadi Trimananda, Athina Markopoulou,
- Abstract要約: 11,500の人気のあるWebサイト上で、Webフォームを見つけるための特殊なクローラーを構築します。
11,500のWebサイトで運用し、293KのWebフォームのデータセットを作成します。
注釈付きデータセットを解析することにより、データ収集プラクティスの一般的なパターンを明らかにする。
- 参考スコア(独自算出の注目度): 5.972457400484541
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Web forms are one of the primary ways to collect personal information online, yet they are relatively under-studied. Unlike web tracking, data collection through web forms is explicit and contextualized. Users (i) are asked to input specific personal information types, and (ii) know the specific context (i.e., on which website and for what purpose). For web forms to be trusted by users, they must meet the common sense standards of appropriate data collection practices within a particular context (i.e., privacy norms). In this paper, we extract the privacy norms embedded within web forms through a measurement study. First, we build a specialized crawler to discover web forms on websites. We run it on 11,500 popular websites, and we create a dataset of 293K web forms. Second, to process data of this scale, we develop a cost-efficient way to annotate web forms with form types and personal information types, using text classifiers trained with assistance of large language models (LLMs). Third, by analyzing the annotated dataset, we reveal common patterns of data collection practices. We find that (i) these patterns are explained by functional necessities and legal obligations, thus reflecting privacy norms, and that (ii) deviations from the observed norms often signal unnecessary data collection. In addition, we analyze the privacy policies that accompany web forms. We show that, despite their wide adoption and use, there is a disconnect between privacy policy disclosures and the observed privacy norms.
- Abstract(参考訳): Webフォームは、個人情報をオンラインで収集する主要な方法の1つだが、それらは比較的研究されていない。
ウェブトラッキングとは異なり、Webフォームによるデータ収集は明示的でコンテキスト化されている。
利用者
(i)特定の個人情報の入力を依頼し、
(二)特定の文脈(すなわち、どのウェブサイトと目的のために)を知ること。
Webフォームがユーザによって信頼されるためには、特定のコンテキスト(すなわちプライバシ規範)内で適切なデータ収集プラクティスの常識標準を満たす必要がある。
本稿では,Web フォームに埋め込まれたプライバシー基準を計測研究により抽出する。
まず、Web上のWebフォームを見つけるための特殊なクローラを構築します。
11,500のWebサイトで運用し、293KのWebフォームのデータセットを作成します。
第2に,大規模な言語モデル (LLM) の助けを借りて学習したテキスト分類器を用いて,フォームタイプと個人情報型でWebフォームに注釈を付けるコスト効率のよい方法を開発した。
第3に、アノテーション付きデータセットを分析して、データ収集プラクティスの共通パターンを明らかにする。
私たちはそれを見つける。
(i)これらのパターンは、機能上の必要と法的義務によって説明され、プライバシーの規範を反映している。
(ii)観測基準からの逸脱は、しばしば不要なデータ収集を示す。
また、Webフォームに付随するプライバシーポリシーも分析する。
広く採用され利用されているにもかかわらず、プライバシーポリシーの開示と観察されたプライバシー規範の間には不一致があることが示されている。
関連論文リスト
- Web Privacy based on Contextual Integrity: Measuring the Collapse of Online Contexts [0.0]
我々はプライバシの理論をコンテキスト統合として運用し、Webコンテキスト内およびWebコンテキスト間の永続的なユーザ識別を測定する。
健康、金融、ニュース&メディア、LGBTQ、eコマース、アダルト、教育のWebサイトなど、トップ700のWebサイトを27日間クロールする。
この結果から,ユーザIDを異なる距離に拡散し,Webサイトをまたがる既知のトラッキング分布と対比し,クッキーIDとJSフィンガープリントによる共同作業,あるいは別の作業として実施した。
論文 参考訳(メタデータ) (2024-12-19T23:30:29Z) - Towards Split Learning-based Privacy-Preserving Record Linkage [49.1574468325115]
ユーザデータのプライバシが要求されるアプリケーションを容易にするために、Split Learningが導入されている。
本稿では,プライバシ保護記録マッチングのための分割学習の可能性について検討する。
論文 参考訳(メタデータ) (2024-09-02T09:17:05Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - DiffAudit: Auditing Privacy Practices of Online Services for Children and Adolescents [5.609870736739224]
子どもと青年のオンラインデータのプライバシーは、子どものオンラインプライバシー保護法(COPPA)などの法律によって規制されている。
子供、青年、成人向けのオンラインサービスは、これらの法律に従わなければならない。
DiffAuditは一般ユーザ向けのプラットフォームに依存しないプライバシ監査手法である。
論文 参考訳(メタデータ) (2024-06-10T17:14:53Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Privacy-Preserving Graph Convolutional Networks for Text Classification [3.5503507997334958]
グラフ畳み込みネットワーク(GCN)は、グラフとして自然に発生する文書の表現学習と予測のための強力なアーキテクチャです。
人々のプロフィールや関係をエッジとして文書などの機密情報を含むデータは、GCNからのプライバシーリークを起こしやすいです。
プライバシーを守ったGCNは、非プライベートバリアントの90%まで性能を発揮し、強力なプライバシー対策を正式に保証しています。
論文 参考訳(メタデータ) (2021-02-10T15:27:38Z) - A Comparative Study of Sequence Classification Models for Privacy Policy
Coverage Analysis [0.0]
プライバシーポリシーは、ウェブサイトがユーザーのデータを収集、使用、配布する方法を記述する法的文書である。
私たちのソリューションは、さまざまな古典的な機械学習とディープラーニング技術を使用して、Webサイトのプライバシポリシのカバレッジ分析をユーザに提供することです。
論文 参考訳(メタデータ) (2020-02-12T21:46:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。