論文の概要: Compliance Generation for Privacy Documents under GDPR: A Roadmap for
Implementing Automation and Machine Learning
- arxiv url: http://arxiv.org/abs/2012.12718v1
- Date: Wed, 23 Dec 2020 14:46:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 18:20:49.723301
- Title: Compliance Generation for Privacy Documents under GDPR: A Roadmap for
Implementing Automation and Machine Learning
- Title(参考訳): GDPRに基づくプライバシドキュメントのコンプライアンス生成 - 自動化と機械学習のロードマップ
- Authors: David Restrepo Amariles, Aurore Cl\'ement Troussel, Rajaa El Hamdani
- Abstract要約: Privatechプロジェクトはコンプライアンスのエージェントとして企業や法律会社に焦点を当てている。
データプロセッサはコンプライアンスの評価と文書化のために説明責任対策を実行しなければならない。
コンプライアンスの問題を特定し,コンプライアンス評価と生成のロードマップを提供する。
- 参考スコア(独自算出の注目度): 2.1485350418225244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most prominent research today addresses compliance with data protection laws
through consumer-centric and public-regulatory approaches. We shift this
perspective with the Privatech project to focus on corporations and law firms
as agents of compliance. To comply with data protection laws, data processors
must implement accountability measures to assess and document compliance in
relation to both privacy documents and privacy practices. In this paper, we
survey, on the one hand, current research on GDPR automation, and on the other
hand, the operational challenges corporations face to comply with GDPR, and
that may benefit from new forms of automation. We attempt to bridge the gap. We
provide a roadmap for compliance assessment and generation by identifying
compliance issues, breaking them down into tasks that can be addressed through
machine learning and automation, and providing notes about related developments
in the Privatech project.
- Abstract(参考訳): 今日、最も顕著な研究は、消費者中心および公共規制アプローチによるデータ保護法の遵守である。
この視点をPrivatechプロジェクトで転換し、コンプライアンスのエージェントとして企業や法律会社に注力します。
データ保護法に準拠するために、データプロセッサは、プライバシー文書とプライバシー慣行の両方に関してコンプライアンスを評価し文書化するための説明責任対策を実行しなければならない。
本稿では, GDPRの自動化に関する最近の研究と, その一方で, 企業がGDPRに従わなければならない運用上の課題について調査し, 新たな形態の自動化の恩恵を受ける可能性がある。
私たちはそのギャップを橋渡ししようとする。
コンプライアンス問題を特定し,機械学習と自動化によって対処可能なタスクに分割し,privatechプロジェクトにおける関連する開発に関するメモを提供することで,コンプライアンス評価と生成のロードマップを提供する。
関連論文リスト
- Advancing Android Privacy Assessments with Automation [5.863391019411233]
この論文は,Androidアプリにおけるデータ保護の理解を深める自動アプローチの必要性を動機付けている。
Assessor Viewは、Androidアプリケーションのより効果的なプライバシアセスメントを促進するために、これらのパーティ間の知識ギャップを埋めるように設計されたツールである。
論文 参考訳(メタデータ) (2024-09-10T14:56:51Z) - RegNLP in Action: Facilitating Compliance Through Automated Information Retrieval and Answer Generation [51.998738311700095]
その長さ、複雑さ、頻繁な更新を特徴とする規制文書は解釈が難しい。
RegNLPは、規制規則と義務のアクセスと解釈を簡素化することを目的とした、多分野のサブフィールドである。
ObliQAデータセットには、Abu Dhabi Global Markets (ADGM) からの27,869の質問が含まれている。
論文 参考訳(メタデータ) (2024-09-09T14:44:19Z) - How Privacy-Savvy Are Large Language Models? A Case Study on Compliance and Privacy Technical Review [15.15468770348023]
プライバシ情報抽出(PIE)、法および規制キーポイント検出(KPD)、質問応答(QA)などのプライバシー関連タスクにおいて、大規模言語モデルの性能を評価する。
本稿では, BERT, GPT-3.5, GPT-4, カスタムモデルなど, プライバシコンプライアンスチェックや技術プライバシレビューの実行能力について検討する。
LLMは、プライバシーレビューの自動化と規制上の相違点の特定を約束する一方で、法律標準の進化に完全に準拠する能力において、大きなギャップが持続している。
論文 参考訳(メタデータ) (2024-09-04T01:51:37Z) - A BERT-based Empirical Study of Privacy Policies' Compliance with GDPR [9.676166100354282]
本研究は,5Gネットワークにおけるプライバシポリシ間のコンプライアンス分析の課題を解決することを目的とする。
約70のMNOから手動でプライバシポリシを収集し,BERTベースの自動モデルを用いて分類を行った。
さらに,5Gネットワークにおけるプライバシポリシの可読性に関する実証的証拠を初めて提示する。
論文 参考訳(メタデータ) (2024-07-09T11:47:52Z) - Demystifying Legalese: An Automated Approach for Summarizing and Analyzing Overlaps in Privacy Policies and Terms of Service [0.6240153531166704]
我々の研究は、このような文書に自動でアクセス可能な要約とスコアを提供する言語モデルを開発することで、この問題を軽減することを目指している。
我々はデータセットのトレーニング中にトランスフォーマーベースのモデルと従来のモデルを比較し、RoBERTaは0.74F1スコアで全体的なパフォーマンスを改善した。
論文 参考訳(メタデータ) (2024-04-17T19:53:59Z) - Towards an Enforceable GDPR Specification [49.1574468325115]
プライバシ・バイ・デザイン(PbD)は、EUなどの現代的なプライバシー規制によって規定されている。
PbDを実現する1つの新しい技術は強制(RE)である
法律規定の正式な仕様を作成するための一連の要件と反復的な方法論を提示する。
論文 参考訳(メタデータ) (2024-02-27T09:38:51Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - GDPR: When the Right to Access Personal Data Becomes a Threat [63.732639864601914]
個人データへのアクセス要求を行う300以上のデータコントローラについて検討する。
リクエストを処理したデータコントローラの50.4%が、ユーザを特定する手順に欠陥があることが分かりました。
望ましくない驚くべき結果によって、現在のデプロイメントでは、Webサービスのユーザのプライバシを実際に低下させています。
論文 参考訳(メタデータ) (2020-05-04T22:01:46Z) - Machine Understandable Policies and GDPR Compliance Checking [9.032680855473986]
SPECIAL H2020プロジェクトは、個人データ共有が、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、かつ、規制義務を定め、規制義務を定め、規制義務を定め、かつ、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、自動的に検証できる一連のツールを提供することを目的とする。
論文 参考訳(メタデータ) (2020-01-24T09:41:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。