論文の概要: Technocracy, pseudoscience and performative compliance: the risks of
privacy risk assessments. Lessons from NIST's Privacy Risk Assessment
Methodology
- arxiv url: http://arxiv.org/abs/2310.05936v1
- Date: Thu, 24 Aug 2023 01:32:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 04:03:53.313382
- Title: Technocracy, pseudoscience and performative compliance: the risks of
privacy risk assessments. Lessons from NIST's Privacy Risk Assessment
Methodology
- Title(参考訳): 技術的、疑似科学、行動的コンプライアンス:プライバシーリスク評価のリスク。
NISTのプライバシリスク評価方法論からの教訓
- Authors: Ero Balsa
- Abstract要約: プライバシ・リスク・アセスメントは、組織がプライバシ・バイ・デザインを実装することを奨励する、客観的で原則化された方法として評価されてきた。
既存のガイドラインや手法はあいまいであり、プライバシーの害に関する実証的な証拠はほとんどない。
実用的で技術的アプローチの限界と落とし穴を強調します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy risk assessments have been touted as an objective, principled way to
encourage organizations to implement privacy-by-design. They are central to a
new regulatory model of collaborative governance, as embodied by the GDPR.
However, existing guidelines and methods remain vague, and there is little
empirical evidence on privacy harms. In this paper we conduct a close analysis
of US NIST's Privacy Risk Assessment Methodology, highlighting multiple sites
of discretion that create countless opportunities for adversarial organizations
to engage in performative compliance. Our analysis shows that the premises on
which the success of privacy risk assessments depends do not hold, particularly
in regard to organizations' incentives and regulators auditing capabilities. We
highlight the limitations and pitfalls of what is essentially a utilitarian and
technocratic approach, leading us to discuss alternatives and a realignment of
our policy and research objectives.
- Abstract(参考訳): プライバシリスクアセスメントは、組織に設計によるプライバシの実施を奨励する、客観的で原則化された方法だと言われている。
彼らはGDPRによって具現化されているように、コラボレーションガバナンスの新しい規制モデルの中心である。
しかし、既存のガイドラインや手法はあいまいであり、プライバシー侵害に関する実証的な証拠はほとんどない。
本稿では,米国NISTのプライバシ・リスク・アセスメント・方法論を綿密に分析し,敵組織が行動的コンプライアンスに携わる無数の機会を生み出す複数の裁量サイトを明らかにする。
分析の結果,プライバシリスクアセスメントが成功する前提は,特に組織のインセンティブや規制当局の監査能力に左右されないことが示された。
我々は、基本的に実用的かつ技術的アプローチの限界と落とし穴を強調し、代替案について議論し、政策と研究の目的を明確にする。
関連論文リスト
- How Privacy-Savvy Are Large Language Models? A Case Study on Compliance and Privacy Technical Review [15.15468770348023]
プライバシ情報抽出(PIE)、法および規制キーポイント検出(KPD)、質問応答(QA)などのプライバシー関連タスクにおいて、大規模言語モデルの性能を評価する。
本稿では, BERT, GPT-3.5, GPT-4, カスタムモデルなど, プライバシコンプライアンスチェックや技術プライバシレビューの実行能力について検討する。
LLMは、プライバシーレビューの自動化と規制上の相違点の特定を約束する一方で、法律標準の進化に完全に準拠する能力において、大きなギャップが持続している。
論文 参考訳(メタデータ) (2024-09-04T01:51:37Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - Centering Policy and Practice: Research Gaps around Usable Differential Privacy [12.340264479496375]
我々は、差分プライバシーは理論上はクリーンな定式化であるが、実際は重大な課題を提起していると論じている。
差分プライバシーの約束と現実世界のユーザビリティのギャップを埋めるために、研究者と実践者は協力しなければなりません。
論文 参考訳(メタデータ) (2024-06-17T21:32:30Z) - GoldCoin: Grounding Large Language Models in Privacy Laws via Contextual Integrity Theory [44.297102658873726]
これまでの研究では、さまざまなプライバシー攻撃、防御、評価を狭義に定義されたパターンの中で探索することで、プライバシを研究する。
我々は,プライバシ違反を評価する司法法において,LLMを効果的に活用するための新しい枠組みであるGoldCoinを紹介した。
我々のフレームワークは、コンテキスト整合性の理論をブリッジとして活用し、関連するプライバシー法に基づく多数の合成シナリオを作成する。
論文 参考訳(メタデータ) (2024-06-17T02:27:32Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - On the Societal Impact of Open Foundation Models [93.67389739906561]
ここでは、広く利用可能なモデルウェイトを持つものとして定義されている、オープンファンデーションモデルに重点を置いています。
オープンファンデーションモデルの5つの特徴を識別し,その利点とリスクを両立させる。
論文 参考訳(メタデータ) (2024-02-27T16:49:53Z) - ZETAR: Modeling and Computational Design of Strategic and Adaptive
Compliance Policies [19.9521399287127]
我々は、インサイダーのインセンティブをモデル化するための定量的アプローチを提供するため、ゼロトラスト監査・レコメンデーションフレームワークZETARを開発した。
政策分離性原理と集合凸性を同定し、有限ステップアルゴリズムが完全信頼に値する(CT)ポリシーセットを効率的に学習できるようにする。
以上の結果から,ZETARはリスクやコンプライアンスの態度の異なるインサイダーに適応でき,コンプライアンスを大幅に改善できることがわかった。
論文 参考訳(メタデータ) (2022-04-05T15:46:31Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。