論文の概要: Data Protection Impact Assessment for the Corona App
- arxiv url: http://arxiv.org/abs/2101.07292v1
- Date: Mon, 18 Jan 2021 19:23:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 21:12:34.144347
- Title: Data Protection Impact Assessment for the Corona App
- Title(参考訳): コロナ・アプリにおけるデータ保護効果評価
- Authors: Kirsten Bock, Christian R. K\"uhne, Rainer M\"uhlhoff, M\v{e}to R.
Ost, J\"org Pohle, Rainer Rehak
- Abstract要約: SARS-CoV-2は2020年初頭からヨーロッパで普及し始めており、パンデミックとの戦いや封じ込めに関する技術的な解決策が強く求められている。
議論の中心には、連絡先追跡アプリに関する技術的な解決策が強く求められている。
EUの一般日時保護規則(DPIA)は、データ保護アセスメントを実施するために管理者を必要としている。
我々は,最も「プライバシフレンドリー」と考えられる3つの接触追跡アプリデザインを徹底的に検証する科学的DPIAを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since SARS-CoV-2 started spreading in Europe in early 2020, there has been a
strong call for technical solutions to combat or contain the pandemic, with
contact tracing apps at the heart of the debates. The EU's General Daten
Protection Regulation (GDPR) requires controllers to carry out a data
protection impact assessment (DPIA) where their data processing is likely to
result in a high risk to the rights and freedoms (Art. 35 GDPR). A DPIA is a
structured risk analysis that identifies and evaluates possible consequences of
data processing relevant to fundamental rights and describes the measures
envisaged to address these risks or expresses the inability to do so. Based on
the Standard Data Protection Model (SDM), we present a scientific DPIA which
thoroughly examines three published contact tracing app designs that are
considered to be the most "privacy-friendly": PEPP-PT, DP-3T and a concept
summarized by Chaos Computer Club member Linus Neumann, all of which process
personal health data. The DPIA starts with an analysis of the processing
context and some expected use cases. Then, the processing activities are
described by defining a realistic processing purpose. This is followed by the
legal assessment and threshold analysis. Finally, we analyse the weak points,
the risks and determine appropriate protective measures. We show that even
decentralized implementations involve numerous serious weaknesses and risks.
Legally, consent is unfit as legal ground hence data must be processed based on
a law. We also found that measures to realize the rights of data subjects and
affected people are not sufficient. Last but not least, we show that
anonymization must be understood as a continuous process, which aims at
separating the personal reference and is based on a mix of legal,
organizational and technical measures. All currently available proposals lack
such an explicit separation process.
- Abstract(参考訳): SARS-CoV-2は2020年初頭にヨーロッパで普及して以来、パンデミックとの戦いや封じ込めに関する技術的な解決を求める声が強く、議論の中心に接触追跡アプリがある。
EUのGDPR(General Daten Protection Regulation)は、データ処理が権利と自由に高いリスクをもたらす可能性のあるデータ保護影響評価(DPIA)を実施するよう、管理者に要求している(第35条GDPR)。
DPIAは、基本的権利に関連するデータ処理の結果を識別し、評価する構造化されたリスク分析であり、これらのリスクに対処するために考えられた措置や、それを行うことができないことを示す。
標準データ保護モデル (SDM) に基づいて, PEPP-PT, DP-3T, およびChaos Computer ClubのメンバーであるLinus Neumannによって要約された概念である, 最も"プライバシフレンドリー"であると考えられる3つの接触追跡アプリ設計を, 徹底的に検証する科学的DPIAを提案する。
DPIAは、処理コンテキストと期待されるユースケースの分析から始まります。
そして、現実的な処理目的を定義することにより、処理アクティビティを記述する。
続いて法的な評価としきい値分析が行われる。
最後に,弱点,リスクを分析し,適切な保護策を決定する。
分散化実装でさえも、多くの重大な弱点とリスクを伴うことを示している。
法的には、同意は法的根拠として適さないので、データは法律に基づいて処理されなければならない。
また,データ主体と影響を受ける人々の権利を実現するための対策が不十分であることがわかった。
最後に、匿名化は、個人的参照を分離することを目的とした継続的プロセスとして理解され、法的、組織的、技術的措置が混在していることを示します。
現在利用可能なすべての提案には、そのような明確な分離プロセスがない。
関連論文リスト
- A Personal data Value at Risk Approach [0.0]
本稿では,データコントローラの観点から,データ保護リスクベースのコンプライアンスに対する定量的アプローチを提案する。
データ保護分析、量的リスク分析、専門家の意見を校正することで、データ保護の影響評価を改善することができる。
論文 参考訳(メタデータ) (2024-11-05T16:09:28Z) - Evaluating Copyright Takedown Methods for Language Models [100.38129820325497]
言語モデル(LM)は、潜在的に著作権のある資料を含む様々なデータに対する広範な訓練からその能力を引き出す。
本稿では,LMの著作権削除の可能性と副作用を初めて評価する。
システムプロンプトの追加、デコード時間フィルタリングの介入、未学習アプローチなど、いくつかの戦略を検討する。
論文 参考訳(メタデータ) (2024-06-26T18:09:46Z) - Modelling Technique for GDPR-compliance: Toward a Comprehensive Solution [0.0]
EU/UKにおける新たなデータ保護法が施行された。
既存の脅威モデリング技術は、コンプライアンスをモデル化するために設計されていない。
非コンプライアンス脅威に対する知識基盤の原則と統合した新しいデータフローを提案する。
論文 参考訳(メタデータ) (2024-04-22T08:41:43Z) - Towards an Enforceable GDPR Specification [49.1574468325115]
プライバシ・バイ・デザイン(PbD)は、EUなどの現代的なプライバシー規制によって規定されている。
PbDを実現する1つの新しい技術は強制(RE)である
法律規定の正式な仕様を作成するための一連の要件と反復的な方法論を提示する。
論文 参考訳(メタデータ) (2024-02-27T09:38:51Z) - When is Off-Policy Evaluation (Reward Modeling) Useful in Contextual Bandits? A Data-Centric Perspective [64.73162159837956]
ログ化されたデータセットだけで仮説的ターゲットポリシーの価値を評価することは重要だが、難しい。
データ中心のフレームワークであるDataCOPEを提案する。
医療データセットを用いたログ化された文脈的帯域設定におけるDataCOPEの実証分析により、機械学習と人間の専門家ポリシーの両方を評価する能力が確認された。
論文 参考訳(メタデータ) (2023-11-23T17:13:37Z) - A Multi-solution Study on GDPR AI-enabled Completeness Checking of DPAs [3.1002416427168304]
一般データ保護規則(DPA、General Data Protection Regulation)は、個人データが保護されたまま処理を規制するデータ処理契約(DPA)を必要とする。
したがって、前提条件に従ってDPAの完全性を確認することは、要求が完全であることを保証するために不可欠である。
本稿では,規定事項に対するDPAの完全性チェックに対処する自動化戦略を提案する。
論文 参考訳(メタデータ) (2023-11-23T10:05:52Z) - EU law and emotion data [0.0]
条文は、EUの法的枠組みにおける感情データ処理に関する法的意味と課題に光を当てている。
本稿では、感情コンピューティングに対する様々なアプローチのニュアンスと、特殊データの処理との関連について論じる。
我々は、感情データの処理が関係する個人にもたらす害を含む、いくつかの結果を強調します。
論文 参考訳(メタデータ) (2023-09-19T17:25:02Z) - Stop Uploading Test Data in Plain Text: Practical Strategies for
Mitigating Data Contamination by Evaluation Benchmarks [70.39633252935445]
データ汚染は、大規模な自動クロールコーパスで事前訓練されたモデルの台頭によって、普及し、課題となっている。
クローズドモデルの場合、トレーニングデータはトレードシークレットになり、オープンモデルであっても汚染を検出するのは簡単ではない。
1)公開するテストデータを公開鍵で暗号化し,デリバティブ配信を許可する,(2)クローズドAPI保持者からの要求トレーニング排他的コントロールを許可する,(2)評価を拒否してテストデータを保護する,(3)インターネット上のソリューションで表示されるデータを避け,インターネット由来のWebページコンテキストを解放する,という3つの方法を提案する。
論文 参考訳(メタデータ) (2023-05-17T12:23:38Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Privacy Preservation in Federated Learning: An insightful survey from
the GDPR Perspective [10.901568085406753]
この記事は、フェデレーテッドラーニングに使用できる最先端のプライバシー技術に関する調査に特化している。
近年の研究では、FLにおけるデータの保持と計算は、プライバシ保証者にとって不十分であることが示されている。
これは、FLシステム内のパーティ間で交換されるMLモデルパラメータが、いくつかのプライバシ攻撃で悪用されるためである。
論文 参考訳(メタデータ) (2020-11-10T21:41:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。