論文の概要: Compliance Generation for Privacy Documents under GDPR: A Roadmap for
Implementing Automation and Machine Learning
- arxiv url: http://arxiv.org/abs/2012.12718v1
- Date: Wed, 23 Dec 2020 14:46:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 18:20:49.723301
- Title: Compliance Generation for Privacy Documents under GDPR: A Roadmap for
Implementing Automation and Machine Learning
- Title(参考訳): GDPRに基づくプライバシドキュメントのコンプライアンス生成 - 自動化と機械学習のロードマップ
- Authors: David Restrepo Amariles, Aurore Cl\'ement Troussel, Rajaa El Hamdani
- Abstract要約: Privatechプロジェクトはコンプライアンスのエージェントとして企業や法律会社に焦点を当てている。
データプロセッサはコンプライアンスの評価と文書化のために説明責任対策を実行しなければならない。
コンプライアンスの問題を特定し,コンプライアンス評価と生成のロードマップを提供する。
- 参考スコア(独自算出の注目度): 2.1485350418225244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most prominent research today addresses compliance with data protection laws
through consumer-centric and public-regulatory approaches. We shift this
perspective with the Privatech project to focus on corporations and law firms
as agents of compliance. To comply with data protection laws, data processors
must implement accountability measures to assess and document compliance in
relation to both privacy documents and privacy practices. In this paper, we
survey, on the one hand, current research on GDPR automation, and on the other
hand, the operational challenges corporations face to comply with GDPR, and
that may benefit from new forms of automation. We attempt to bridge the gap. We
provide a roadmap for compliance assessment and generation by identifying
compliance issues, breaking them down into tasks that can be addressed through
machine learning and automation, and providing notes about related developments
in the Privatech project.
- Abstract(参考訳): 今日、最も顕著な研究は、消費者中心および公共規制アプローチによるデータ保護法の遵守である。
この視点をPrivatechプロジェクトで転換し、コンプライアンスのエージェントとして企業や法律会社に注力します。
データ保護法に準拠するために、データプロセッサは、プライバシー文書とプライバシー慣行の両方に関してコンプライアンスを評価し文書化するための説明責任対策を実行しなければならない。
本稿では, GDPRの自動化に関する最近の研究と, その一方で, 企業がGDPRに従わなければならない運用上の課題について調査し, 新たな形態の自動化の恩恵を受ける可能性がある。
私たちはそのギャップを橋渡ししようとする。
コンプライアンス問題を特定し,機械学習と自動化によって対処可能なタスクに分割し,privatechプロジェクトにおける関連する開発に関するメモを提供することで,コンプライアンス評価と生成のロードマップを提供する。
関連論文リスト
- Towards an Enforceable GDPR Specification [49.1574468325115]
プライバシ・バイ・デザイン(PbD)は、EUなどの現代的なプライバシー規制によって規定されている。
PbDを実現する1つの新しい技術は強制(RE)である
法律規定の正式な仕様を作成するための一連の要件と反復的な方法論を提示する。
論文 参考訳(メタデータ) (2024-02-27T09:38:51Z) - A Multi-solution Study on GDPR AI-enabled Completeness Checking of DPAs [3.1002416427168304]
一般データ保護規則(DPA、General Data Protection Regulation)は、個人データが保護されたまま処理を規制するデータ処理契約(DPA)を必要とする。
したがって、前提条件に従ってDPAの完全性を確認することは、要求が完全であることを保証するために不可欠である。
本稿では,規定事項に対するDPAの完全性チェックに対処する自動化戦略を提案する。
論文 参考訳(メタデータ) (2023-11-23T10:05:52Z) - Legal Requirements Analysis [2.3349787245442966]
法的な要件を解析し,その表現を例示する様々な手法について検討する。
機械分析可能な表現を規則から作成する代替案について述べる。
論文 参考訳(メタデータ) (2023-11-23T09:31:57Z) - On Responsible Machine Learning Datasets with Fairness, Privacy, and
Regulatory Norms [58.93352076927003]
AI技術の信頼性に関する深刻な懸念があった。
機械学習とディープラーニングのアルゴリズムは、開発に使用されるデータに大きく依存する。
本稿では,責任あるルーブリックを用いてデータセットを評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:01:53Z) - Auditing and Generating Synthetic Data with Controllable Trust
Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - AI-enabled Automation for Completeness Checking of Privacy Policies [7.707284039078785]
ヨーロッパでは、プライバシーポリシーは一般データ保護規則に準拠する。
本稿では,プライバシーポリシーの完全性チェックのためのAIベースの自動化を提案する。
論文 参考訳(メタデータ) (2021-06-10T12:10:51Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - ML Privacy Meter: Aiding Regulatory Compliance by Quantifying the
Privacy Risks of Machine Learning [10.190911271176201]
機械学習モデルは、モデル予測とパラメータを通じて間接的にデータについて明らかにすることで、データにさらなるプライバシーリスクをもたらす。
モデルからのデータに対して、プライバシのリスクを定量化するツールがすぐに必要になります。
ML Privacy Meterは、アートメンバーシップ推論攻撃手法の状態を通じ、モデルからのデータに対するプライバシリスクを定量化するツールである。
論文 参考訳(メタデータ) (2020-07-18T06:21:35Z) - GDPR: When the Right to Access Personal Data Becomes a Threat [63.732639864601914]
個人データへのアクセス要求を行う300以上のデータコントローラについて検討する。
リクエストを処理したデータコントローラの50.4%が、ユーザを特定する手順に欠陥があることが分かりました。
望ましくない驚くべき結果によって、現在のデプロイメントでは、Webサービスのユーザのプライバシを実際に低下させています。
論文 参考訳(メタデータ) (2020-05-04T22:01:46Z) - Machine Understandable Policies and GDPR Compliance Checking [9.032680855473986]
SPECIAL H2020プロジェクトは、個人データ共有が、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、かつ、規制義務を定め、規制義務を定め、規制義務を定め、かつ、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、規制義務を定め、自動的に検証できる一連のツールを提供することを目的とする。
論文 参考訳(メタデータ) (2020-01-24T09:41:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。