論文の概要: Privacy Impact Assessment: Comparing methodologies with a focus on
practicality
- arxiv url: http://arxiv.org/abs/2110.07366v1
- Date: Thu, 14 Oct 2021 13:52:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-11 12:17:51.209449
- Title: Privacy Impact Assessment: Comparing methodologies with a focus on
practicality
- Title(参考訳): プライバシー影響評価:方法論と実用性の比較
- Authors: Tamas Bisztray, Nils Gruschka
- Abstract要約: 異なるデータ保護影響評価フレームワークを比較します。
この比較の結果、弱点と強みが示されるが、テスト対象のフレームワークがすべての望ましいプロパティを満たすことはないことも明らかに示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Privacy and data protection have become more and more important in recent
years since an increasing number of enterprises and startups are harvesting
personal data as a part of their business model. One central requirement of the
GDPR is the implementation of a data protection impact assessment for privacy
critical systems. However, the law does not dictate or recommend the use of any
particular framework. In this paper we compare different data protection impact
assessment frameworks. We have developed a comparison and evaluation
methodology and applied this to three popular impact assessment frameworks. The
result of this comparison shows the weaknesses and strengths, but also clearly
indicates that none of the tested frameworks fulfill all desired properties.
Thus, the development of a new or improved data protection impact assessment
framework is an important open issue for future work, especially for sector
specific applications.
- Abstract(参考訳): 近年では、企業やスタートアップがビジネスモデルの一部として個人データを収集するケースが増えているため、プライバシとデータ保護がますます重要になっている。
GDPRの中心的な要件のひとつは、プライバシクリティカルシステムに対するデータ保護の影響評価の実装である。
しかし、法律は特定のフレームワークの使用を規定したり推奨したりしない。
本稿では,異なるデータ保護影響評価フレームワークの比較を行う。
我々は、比較評価手法を開発し、3つの人気のある影響評価フレームワークに適用した。
この比較の結果、弱点と強みが示されるが、テスト対象のフレームワークがすべての望ましいプロパティを満たすことはないことも明らかに示している。
したがって、新しい、または改善されたデータ保護影響評価フレームワークの開発は、将来の作業、特にセクター固有のアプリケーションにとって重要な課題である。
関連論文リスト
- When is Off-Policy Evaluation Useful? A Data-Centric Perspective [60.76880827781716]
ログ化されたデータセットだけで仮説的ターゲットポリシーの価値を評価することは重要だが、難しい。
データ中心のフレームワークであるDataCOPEを提案する。
論文 参考訳(メタデータ) (2023-11-23T17:13:37Z) - A Cautionary Tale: On the Role of Reference Data in Empirical Privacy
Defenses [12.34501903200183]
本稿では,トレーニングデータと参照データの両方に関して,ユーティリティプライバシトレードオフを容易に理解可能なベースラインディフェンスを提案する。
私たちの実験では、驚くべきことに、最もよく研究され、現在最先端の実証的なプライバシー保護よりも優れています。
論文 参考訳(メタデータ) (2023-10-18T17:07:07Z) - Large Language Models Can Be Good Privacy Protection Learners [53.07930843882592]
本稿では,プライバシ保護言語モデル(PPLM)を紹介する。
本研究は, コーパスキュレーション, ペナルティに基づくトレーニング損失の相違, 命令に基づくチューニングなど, モデル設計の理論的解析を行う。
特に、肯定的な例と否定的な例の両方による命令チューニングは、モデルの知識を高めながら、個人データを効果的に保護する、有望な方法として際立っている。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Auditing and Generating Synthetic Data with Controllable Trust
Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Offline Policy Comparison with Confidence: Benchmarks and Baselines [28.775565917880915]
OPC with Confidence (OPCC) のベンチマークを作成し、オフラインの強化学習からデータセットにポリシー比較クエリのセットを追加する。
また,モデルベースラインのクラスに対するリスク対カバレッジトレードオフの実証評価を行った。
論文 参考訳(メタデータ) (2022-05-22T04:28:25Z) - Evaluating Privacy-Preserving Machine Learning in Critical
Infrastructures: A Case Study on Time-Series Classification [5.607917328636864]
モデルもデータも、センシティブな情報を抽出するのに使用しないことを確実にすることは、重要なことです。
さまざまな安全クリティカルなユースケース(主に時系列データに依存している)は、現在、プライバシーに関する考慮事項で不足している。
時系列データに適用性に関するいくつかのプライバシー保護手法を評価することにより、深層学習における暗号化の非効率性を検証した。
論文 参考訳(メタデータ) (2021-11-29T12:28:22Z) - Measuring Fairness in Generative Models [38.167419334780526]
近年、深層データの公平性への関心が高まっている。
公正データ生成の中心は、異なる生成モデルの評価と評価のための公正度指標である。
論文 参考訳(メタデータ) (2021-07-16T08:12:44Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - On the Privacy-Utility Tradeoff in Peer-Review Data Analysis [34.0435377376779]
ピアレビューの改善に関する研究における大きな障害は、ピアレビューデータの利用不可能である。
我々は、特定の会議のピアレビューデータのプライバシー保護のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-29T21:08:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。