論文の概要: Expert opinions on making GDPR usable
- arxiv url: http://arxiv.org/abs/2308.08287v1
- Date: Wed, 16 Aug 2023 11:20:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 13:56:32.695503
- Title: Expert opinions on making GDPR usable
- Title(参考訳): GDPRの活用に関する専門家の意見
- Authors: Johanna Johansen
- Abstract要約: 私たちは、法律とデータ保護/プライバシ、認定と標準化、ユーザビリティの4つの概念に関連性のある、回答者のエキスパートとして使用しています。
我々は,「基準」,「法」,「使用可能性」の3つの専門家グループを表すデータを,産業と学界の両方から分析するために,理論三角測量を用いた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present the results of a study done in order to validate concepts and
methods that have been introduced in (Johansen and Fischer-Hubner, 2020.
"Making GDPR Usable: A Model to Support Usability Evaluations of Privacy." in
IFIP AICT 576, 275-291). We use as respondents in our interviews experts
working across fields of relevance to these concepts, including law and data
protection/privacy, certifications and standardization, and usability (as
studied in the field of Human-Computer Interaction). We study the experts'
opinions about four new concepts, namely: (i) a definition of Usable Privacy,
(ii) 30 Usable Privacy Goals identified as excerpts from the GDPR (European
General Data Protection Regulation), (iii) a set of 25 corresponding Usable
Privacy Criteria together with their multiple measurable sub-criteria, and (iv)
the Usable Privacy Cube model, which puts all these together with the EuroPriSe
certification criteria, with the purpose of making explicit several aspects of
certification processes such as orderings of criteria, interactions between
these, different stakeholder perspectives, and context of use/processing.
The expert opinions are varied, example-rich, and forward-looking, which
gives a impressive list of open problems where the above four concepts can work
as a foundation for further developments. We employed a critical qualitative
research, using theory triangulation to analyze the data representing three
groups of experts, categorized as 'certifications', 'law', and 'usability',
coming both from industry and academia. The results of our analysis show
agreement among the experts about the need for evaluations and measuring of
usability of privacy in order to allow for exercising data subjects' rights and
to evaluate the degree to which data controllers comply with the data
protection principles.
- Abstract(参考訳): 本稿では,2020年に導入された概念と手法を検証するために実施した研究結果について述べる(johansen and fischer-hubner, 2020)。「gdprの利用性:プライバシのユーザビリティ評価を支援するモデル」は,ifip aict 576, 275-291)。
私たちは、法律やデータ保護/プライバシ、認証と標準化、ユーザビリティ(人間-コンピュータインタラクションの分野での研究)など、これらの概念に関係のある分野で働く専門家のインタビューで、回答者として使用しています。
専門家の4つの新しい概念、すなわち
(i)使用可能なプライバシーの定義
(ii)gdpr(european general data protection regulation)の抜粋として特定された30のプライバシ目標
(iii)複数の測定可能なサブクリトリアとともに、使用可能なプライバシー基準に対応する25の組
(iv)これらすべてをeuroprise認定基準と組み合わせ、基準の順序付け、これらの間の相互作用、異なる利害関係者の視点、使用/処理のコンテキストといった認定プロセスのいくつかの側面を明確にすることを目的として、利用可能なプライバシキューブモデル。
専門家の意見は多様で、サンプルが豊富で、前向きで、上記の4つの概念がさらなる発展の基盤として機能するオープンな問題の印象的なリストを提供する。
我々は,理論三角測量を用いて,産学・産学両分野の「認証」「法律」「使用可能性」に分類される3つの専門家グループを表わすデータを分析した。
分析の結果,データ主体の権利を行使し,データ管理者がデータ保護原則に準拠する程度を評価するために,プライバシの評価とユーザビリティの測定の必要性について,専門家の間で合意が得られた。
関連論文リスト
- A Comprehensive Study on GDPR-Oriented Analysis of Privacy Policies: Taxonomy, Corpus and GDPR Concept Classifiers [18.770985160731122]
我々は、より完全な分類法を開発し、階層的な情報を持つラベル付きプライバシポリシーの最初のコーパスを作成し、プライバシポリシーのための概念分類器の最も包括的なパフォーマンス評価を行った。
本研究は, セグメントレベルでのトレーニングとテストセットの分割が適切でないこと, 階層的情報を考慮したことのメリット, 「一つのサイズがすべてに適合する」アプローチの限界, クロスコーパスの汎用性をテストすることの意義など, 新たな発見を導く。
論文 参考訳(メタデータ) (2024-10-07T05:19:12Z) - InsightBench: Evaluating Business Analytics Agents Through Multi-Step Insight Generation [79.09622602860703]
3つの重要な特徴を持つベンチマークデータセットであるInsightBenchを紹介します。
財務やインシデント管理といったさまざまなビジネスユースケースを表す100のデータセットで構成されている。
単一のクエリに回答することに焦点を当てた既存のベンチマークとは異なり、InsightBenchは、エンドツーエンドのデータ分析を実行する能力に基づいてエージェントを評価する。
論文 参考訳(メタデータ) (2024-07-08T22:06:09Z) - An applied Perspective: Estimating the Differential Identifiability Risk of an Exemplary SOEP Data Set [2.66269503676104]
基本的統計的クエリの集合に対して,リスクメトリックを効率的に計算する方法を示す。
実世界の科学的データセットに基づいた実証分析は、現実的な条件下でのリスクの計算方法に関する知識を拡大します。
論文 参考訳(メタデータ) (2024-07-04T17:50:55Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Centering Policy and Practice: Research Gaps around Usable Differential Privacy [12.340264479496375]
我々は、差分プライバシーは理論上はクリーンな定式化であるが、実際は重大な課題を提起していると論じている。
差分プライバシーの約束と現実世界のユーザビリティのギャップを埋めるために、研究者と実践者は協力しなければなりません。
論文 参考訳(メタデータ) (2024-06-17T21:32:30Z) - Sharing is CAIRing: Characterizing Principles and Assessing Properties
of Universal Privacy Evaluation for Synthetic Tabular Data [3.67056030380617]
比較可能性、適用性、解釈可能性、代表性(CAIR)の4つの原則を同定する。
本研究は,CAIRの原則とルーブリックの適用性および有用性について,他の研究で広く普及している指標の選択を評価して検討する。
論文 参考訳(メタデータ) (2023-12-19T15:05:52Z) - When is Off-Policy Evaluation (Reward Modeling) Useful in Contextual Bandits? A Data-Centric Perspective [64.73162159837956]
ログ化されたデータセットだけで仮説的ターゲットポリシーの価値を評価することは重要だが、難しい。
データ中心のフレームワークであるDataCOPEを提案する。
医療データセットを用いたログ化された文脈的帯域設定におけるDataCOPEの実証分析により、機械学習と人間の専門家ポリシーの両方を評価する能力が確認された。
論文 参考訳(メタデータ) (2023-11-23T17:13:37Z) - A Cautionary Tale: On the Role of Reference Data in Empirical Privacy
Defenses [12.34501903200183]
本稿では,トレーニングデータと参照データの両方に関して,ユーティリティプライバシトレードオフを容易に理解可能なベースラインディフェンスを提案する。
私たちの実験では、驚くべきことに、最もよく研究され、現在最先端の実証的なプライバシー保護よりも優れています。
論文 参考訳(メタデータ) (2023-10-18T17:07:07Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - A Survey of Secure Computation Using Trusted Execution Environments [80.58996305474842]
本稿では、TEEベースのセキュアな計算プロトコルの体系的なレビューと比較を行う。
まず、セキュアな計算プロトコルを3つの主要なカテゴリ、すなわち、セキュアなアウトソース計算、セキュアな分散計算、セキュアなマルチパーティ計算に分類する分類法を提案する。
これらの基準に基づき,汎用計算関数と特殊目的計算の両方に対して,最先端のTEEベースのセキュアな計算プロトコルを検証,検討し,比較する。
論文 参考訳(メタデータ) (2023-02-23T16:33:56Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。