論文の概要: A Fine-grained Chinese Software Privacy Policy Dataset for Sequence
Labeling and Regulation Compliant Identification
- arxiv url: http://arxiv.org/abs/2212.04357v1
- Date: Sun, 4 Dec 2022 05:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 16:07:56.062240
- Title: A Fine-grained Chinese Software Privacy Policy Dataset for Sequence
Labeling and Regulation Compliant Identification
- Title(参考訳): 順序ラベリングと規則に準拠した識別のためのきめ細かい中国のソフトウェアプライバシーポリシーデータセット
- Authors: Kaifa Zhao, Le Yu, Shiyao Zhou, Jing Li, Xiapu Luo, Yat Fei Aemon
Chiu, Yutong Liu
- Abstract要約: 中国初のプライバシポリシデータセットであるCA4P-483を構築し、シークエンスラベリングタスクと規制コンプライアンスの識別を容易にする。
私たちのデータセットには、中国のAndroidアプリケーションプライバシポリシ483、11K以上の文、52Kの細かいアノテーションが含まれています。
- 参考スコア(独自算出の注目度): 23.14031861460124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy protection raises great attention on both legal levels and user
awareness. To protect user privacy, countries enact laws and regulations
requiring software privacy policies to regulate their behavior. However,
privacy policies are written in natural languages with many legal terms and
software jargon that prevent users from understanding and even reading them. It
is desirable to use NLP techniques to analyze privacy policies for helping
users understand them. Furthermore, existing datasets ignore law requirements
and are limited to English. In this paper, we construct the first Chinese
privacy policy dataset, namely CA4P-483, to facilitate the sequence labeling
tasks and regulation compliance identification between privacy policies and
software. Our dataset includes 483 Chinese Android application privacy
policies, over 11K sentences, and 52K fine-grained annotations. We evaluate
families of robust and representative baseline models on our dataset. Based on
baseline performance, we provide findings and potential research directions on
our dataset. Finally, we investigate the potential applications of CA4P-483
combing regulation requirements and program analysis.
- Abstract(参考訳): プライバシー保護は、法的レベルとユーザーの意識の両方に大きな注目を集める。
ユーザのプライバシを保護するため、国は行動の規制にソフトウェアプライバシポリシーを必要とする法律や規制を制定している。
しかし、プライバシーポリシーは多くの法律用語とソフトウェア用語で自然言語で書かれており、ユーザーがそれを理解したり読むことさえできない。
ユーザの理解を支援するために,NLP技術を用いてプライバシポリシを分析することが望ましい。
さらに、既存のデータセットは法律の要件を無視し、英語に限定されている。
本稿では,プライバシポリシとソフトウェア間のシーケンスラベリング作業と規制コンプライアンスの識別を容易にするために,中国初のプライバシポリシデータセットであるCA4P-483を構築した。
私たちのデータセットには、中国のAndroidアプリケーションプライバシポリシ483、11K以上の文、52Kの細かいアノテーションが含まれています。
データセット上のロバストおよび代表的なベースラインモデルのファミリーを評価します。
ベースラインのパフォーマンスに基づいて、データセットに関する発見と潜在的研究の方向性を提供する。
最後に,CA4P-483を組み込んだ規制要件とプログラム解析の適用可能性について検討した。
関連論文リスト
- Interactive GDPR-Compliant Privacy Policy Generation for Software Applications [6.189770781546807]
ソフトウェアアプリケーションを使用するには、ユーザが個人情報を提供するように要求されることがある。
プライバシーが重要な関心事になっているため、世界中で多くの保護規制が存在している。
本稿では,包括的かつ適合したプライバシポリシを生成するアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-04T01:22:16Z) - How Privacy-Savvy Are Large Language Models? A Case Study on Compliance and Privacy Technical Review [15.15468770348023]
プライバシ情報抽出(PIE)、法および規制キーポイント検出(KPD)、質問応答(QA)などのプライバシー関連タスクにおいて、大規模言語モデルの性能を評価する。
本稿では, BERT, GPT-3.5, GPT-4, カスタムモデルなど, プライバシコンプライアンスチェックや技術プライバシレビューの実行能力について検討する。
LLMは、プライバシーレビューの自動化と規制上の相違点の特定を約束する一方で、法律標準の進化に完全に準拠する能力において、大きなギャップが持続している。
論文 参考訳(メタデータ) (2024-09-04T01:51:37Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - The Saudi Privacy Policy Dataset [0.0]
サウジアラビアの様々なセクターから多様なプライバシーポリシーをまとめて紹介する。
最終データセットには、7つのセクターに属する1,000のウェブサイト、4,638行のテキスト、775,370トークン、コーパスサイズ8,353KBが含まれる。
本稿では、プライバシポリシ分析、自然言語処理、およびプライバシとデータ保護に関連する機械学習アプリケーションについて、さらなる研究と開発を目的としている。
論文 参考訳(メタデータ) (2023-04-05T21:40:37Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Exploring Consequences of Privacy Policies with Narrative Generation via
Answer Set Programming [0.0]
プライバシポリシの形式化にAnswer Set Programming(ASP)を使用するフレームワークを提案する。
ASP.NETは、エンドユーザがアクターの観点からポリシーの結果を前方にシミュレートすることを可能にする。
本稿では,健康保険の可搬性と説明責任法(Health Insurance Portability and Accountability Act)の事例を通じて,様々な方法でシステムを利用する方法を紹介する。
論文 参考訳(メタデータ) (2022-12-13T16:44:46Z) - Detecting Compliance of Privacy Policies with Data Protection Laws [0.0]
プライバシーポリシーは、しばしば理解が難しい広範囲の法的用語で書かれる。
我々は、さまざまなデータ保護法に基づきプライバシーポリシーを分析するフレームワークを提供することで、このギャップを埋めることを目指している。
このようなツールを使用することで、ユーザーは自分の個人データがどのように管理されているかを理解することができます。
論文 参考訳(メタデータ) (2021-02-21T09:15:15Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。