論文の概要: Identifying Practical Challenges in the Implementation of Technical
Measures for Data Privacy Compliance
- arxiv url: http://arxiv.org/abs/2306.15497v1
- Date: Tue, 27 Jun 2023 14:18:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 13:11:07.638034
- Title: Identifying Practical Challenges in the Implementation of Technical
Measures for Data Privacy Compliance
- Title(参考訳): データプライバシコンプライアンスの技術的対策実施における実践的課題の特定
- Authors: Oleksandra Klymenko, Stephen Meisenbacher, Florian Matthes
- Abstract要約: プライバシコンプライアンスに関する技術的措置の実施において直面する33の課題を提示する。
本論文は,プライバシ専門家に対する16件のインタビューの質的分析から導いたものである。
- 参考スコア(独自算出の注目度): 21.844047604993687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern privacy regulations provide a strict mandate for data processing
entities to implement appropriate technical measures to demonstrate compliance.
In practice, determining what measures are indeed "appropriate" is not trivial,
particularly in light of vague guidelines provided by privacy regulations. To
exacerbate the issue, challenges arise not only in the implementation of the
technical measures themselves, but also in a variety of factors involving the
roles, processes, decisions, and culture surrounding the pursuit of privacy
compliance. In this paper, we present 33 challenges faced in the implementation
of technical measures for privacy compliance, derived from a qualitative
analysis of 16 interviews with privacy professionals. In addition, we evaluate
the interview findings in a survey study, which gives way to a discussion of
the identified challenges and their implications.
- Abstract(参考訳): 現代のプライバシー規制は、データ処理エンティティがコンプライアンスを示す適切な技術的措置を実行するための厳格な義務を与える。
実際には、特にプライバシー規制の曖昧なガイドラインに照らして、どの措置が本当に「適切」かを判断することは簡単ではない。
問題を悪化させるためには、技術的な措置自体の実装だけでなく、プライバシコンプライアンスを追求する役割、プロセス、決定、文化を含む様々な要因にも課題が発生する。
本稿では,プライバシ専門家16人のインタビューの質的分析から,プライバシコンプライアンスの技術的対策を実施する上で直面する33の課題について述べる。
さらに,質問紙調査における面接結果の評価を行い,その課題とその意義について考察した。
関連論文リスト
- Privacy-Preserving Language Model Inference with Instance Obfuscation [33.86459812694288]
言語モデル・アズ・ア・サービス(LM)は、開発者や研究者が事前訓練された言語モデルを使用して推論を行うための便利なアクセスを提供する。
入力データとプライベート情報を含む推論結果は、サービスコール中にプレーンテキストとして公開され、プライバシー上の問題が発生する。
本稿では,自然言語理解タスクにおける決定プライバシ問題に対処することに焦点を当てた,インスタンス・オブフルスケート推論(IOI)手法を提案する。
論文 参考訳(メタデータ) (2024-02-13T05:36:54Z) - A Summary of Privacy-Preserving Data Publishing in the Local Setting [0.6749750044497732]
統計開示制御は、機密情報を匿名化して暴露するリスクを最小限にすることを目的としている。
マイクロデータの復号化に使用される現在のプライバシ保存技術について概説し、様々な開示シナリオに適したプライバシ対策を掘り下げ、情報損失と予測性能の指標を評価する。
論文 参考訳(メタデータ) (2023-12-19T04:23:23Z) - Experts-in-the-Loop: Establishing an Effective Workflow in Crafting
Privacy Q&A [0.0]
プライバシポリシをプライバシ質問応答(Q&A)ペアに変換する動的ワークフローを提案する。
そこで我々は,法の専門家と会話デザイナーの学際的なコラボレーションを促進する。
提案するワークフローは,プライバシQ&Aの構築を通じて継続的改善と監視の基盤となる。
論文 参考訳(メタデータ) (2023-11-18T20:32:59Z) - Advancing Differential Privacy: Where We Are Now and Future Directions for Real-World Deployment [100.1798289103163]
差分プライバシ(DP)分野における現状と現状の方法論の詳細なレビューを行う。
論文のポイントとハイレベルな内容は,「認知プライバシ(DP:次のフロンティアへの挑戦)」の議論から生まれた。
この記事では、プライバシの領域におけるアルゴリズムおよび設計決定の基準点を提供することを目標とし、重要な課題と潜在的研究の方向性を強調します。
論文 参考訳(メタデータ) (2023-04-14T05:29:18Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Differential Privacy and Fairness in Decisions and Learning Tasks: A
Survey [50.90773979394264]
プライバシーと公正が目標と一致したり、対照的になったりした条件をレビューする。
意思決定問題や学習タスクにおいて、DPが偏見や不公平を悪化させる理由と理由を分析します。
論文 参考訳(メタデータ) (2022-02-16T16:50:23Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - A Proposal for Amending Privacy Regulations to Tackle the Challenges
Stemming from Combining Data Sets [0.0]
私たちは、AI駆動のデータ処理プラクティスがもたらす影響を適切に解決する現在のデータ保護規制の能力に、いくつかの欠点に焦点を当てています。
プライバシー規制は個人のプライバシーに対する期待に頼らず、2つの方向の規制改革を推奨する。
論文 参考訳(メタデータ) (2021-11-26T03:30:11Z) - Reviving Purpose Limitation and Data Minimisation in Personalisation,
Profiling and Decision-Making Systems [0.0]
本論文では、学際法則とコンピュータサイエンスレンズを通じて、データ駆動システムにおいてデータ最小化と目的制限を有意義に実装できるかどうかを決定する。
分析の結果,この2つの法原則が個人データ処理のリスク軽減に重要な役割を担っていることが明らかとなった。
これらの原則は検討中のシステムにおいて重要なセーフガードであるが、実用的な実装には重要な制限がある。
論文 参考訳(メタデータ) (2021-01-15T16:36:29Z) - A vision for global privacy bridges: Technical and legal measures for
international data markets [77.34726150561087]
データ保護法とプライバシーの権利が認められているにもかかわらず、個人情報の取引は「トレーディング・オイル」と同等のビジネスになっている。
オープンな対立は、データに対するビジネスの要求とプライバシーへの欲求の間に生じている。
プライバシを備えたパーソナル情報市場のビジョンを提案し,テストする。
論文 参考訳(メタデータ) (2020-05-13T13:55:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。