論文の概要: Privacy Impact Assessment: Comparing methodologies with a focus on
practicality
- arxiv url: http://arxiv.org/abs/2110.07366v1
- Date: Thu, 14 Oct 2021 13:52:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-11 12:17:51.209449
- Title: Privacy Impact Assessment: Comparing methodologies with a focus on
practicality
- Title(参考訳): プライバシー影響評価:方法論と実用性の比較
- Authors: Tamas Bisztray, Nils Gruschka
- Abstract要約: 異なるデータ保護影響評価フレームワークを比較します。
この比較の結果、弱点と強みが示されるが、テスト対象のフレームワークがすべての望ましいプロパティを満たすことはないことも明らかに示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Privacy and data protection have become more and more important in recent
years since an increasing number of enterprises and startups are harvesting
personal data as a part of their business model. One central requirement of the
GDPR is the implementation of a data protection impact assessment for privacy
critical systems. However, the law does not dictate or recommend the use of any
particular framework. In this paper we compare different data protection impact
assessment frameworks. We have developed a comparison and evaluation
methodology and applied this to three popular impact assessment frameworks. The
result of this comparison shows the weaknesses and strengths, but also clearly
indicates that none of the tested frameworks fulfill all desired properties.
Thus, the development of a new or improved data protection impact assessment
framework is an important open issue for future work, especially for sector
specific applications.
- Abstract(参考訳): 近年では、企業やスタートアップがビジネスモデルの一部として個人データを収集するケースが増えているため、プライバシとデータ保護がますます重要になっている。
GDPRの中心的な要件のひとつは、プライバシクリティカルシステムに対するデータ保護の影響評価の実装である。
しかし、法律は特定のフレームワークの使用を規定したり推奨したりしない。
本稿では,異なるデータ保護影響評価フレームワークの比較を行う。
我々は、比較評価手法を開発し、3つの人気のある影響評価フレームワークに適用した。
この比較の結果、弱点と強みが示されるが、テスト対象のフレームワークがすべての望ましいプロパティを満たすことはないことも明らかに示している。
したがって、新しい、または改善されたデータ保護影響評価フレームワークの開発は、将来の作業、特にセクター固有のアプリケーションにとって重要な課題である。
関連論文リスト
- A Comprehensive Study on GDPR-Oriented Analysis of Privacy Policies: Taxonomy, Corpus and GDPR Concept Classifiers [18.770985160731122]
我々は、より完全な分類法を開発し、階層的な情報を持つラベル付きプライバシポリシーの最初のコーパスを作成し、プライバシポリシーのための概念分類器の最も包括的なパフォーマンス評価を行った。
本研究は, セグメントレベルでのトレーニングとテストセットの分割が適切でないこと, 階層的情報を考慮したことのメリット, 「一つのサイズがすべてに適合する」アプローチの限界, クロスコーパスの汎用性をテストすることの意義など, 新たな発見を導く。
論文 参考訳(メタデータ) (2024-10-07T05:19:12Z) - The Data Minimization Principle in Machine Learning [61.17813282782266]
データ最小化は、収集、処理、保持されるデータの量を減らすことを目的としている。
様々な国際データ保護規制によって支持されている。
しかし、厳密な定式化が欠如しているため、その実践的な実装は依然として課題である。
論文 参考訳(メタデータ) (2024-05-29T19:40:27Z) - When is Off-Policy Evaluation (Reward Modeling) Useful in Contextual Bandits? A Data-Centric Perspective [64.73162159837956]
ログ化されたデータセットだけで仮説的ターゲットポリシーの価値を評価することは重要だが、難しい。
データ中心のフレームワークであるDataCOPEを提案する。
医療データセットを用いたログ化された文脈的帯域設定におけるDataCOPEの実証分析により、機械学習と人間の専門家ポリシーの両方を評価する能力が確認された。
論文 参考訳(メタデータ) (2023-11-23T17:13:37Z) - A Cautionary Tale: On the Role of Reference Data in Empirical Privacy
Defenses [12.34501903200183]
本稿では,トレーニングデータと参照データの両方に関して,ユーティリティプライバシトレードオフを容易に理解可能なベースラインディフェンスを提案する。
私たちの実験では、驚くべきことに、最もよく研究され、現在最先端の実証的なプライバシー保護よりも優れています。
論文 参考訳(メタデータ) (2023-10-18T17:07:07Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Offline Policy Comparison with Confidence: Benchmarks and Baselines [28.775565917880915]
OPC with Confidence (OPCC) のベンチマークを作成し、オフラインの強化学習からデータセットにポリシー比較クエリのセットを追加する。
また,モデルベースラインのクラスに対するリスク対カバレッジトレードオフの実証評価を行った。
論文 参考訳(メタデータ) (2022-05-22T04:28:25Z) - Evaluating Privacy-Preserving Machine Learning in Critical
Infrastructures: A Case Study on Time-Series Classification [5.607917328636864]
モデルもデータも、センシティブな情報を抽出するのに使用しないことを確実にすることは、重要なことです。
さまざまな安全クリティカルなユースケース(主に時系列データに依存している)は、現在、プライバシーに関する考慮事項で不足している。
時系列データに適用性に関するいくつかのプライバシー保護手法を評価することにより、深層学習における暗号化の非効率性を検証した。
論文 参考訳(メタデータ) (2021-11-29T12:28:22Z) - Measuring Fairness in Generative Models [38.167419334780526]
近年、深層データの公平性への関心が高まっている。
公正データ生成の中心は、異なる生成モデルの評価と評価のための公正度指標である。
論文 参考訳(メタデータ) (2021-07-16T08:12:44Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。