論文の概要: Technocracy, pseudoscience and performative compliance: the risks of
privacy risk assessments. Lessons from NIST's Privacy Risk Assessment
Methodology
- arxiv url: http://arxiv.org/abs/2310.05936v1
- Date: Thu, 24 Aug 2023 01:32:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 04:03:53.313382
- Title: Technocracy, pseudoscience and performative compliance: the risks of
privacy risk assessments. Lessons from NIST's Privacy Risk Assessment
Methodology
- Title(参考訳): 技術的、疑似科学、行動的コンプライアンス:プライバシーリスク評価のリスク。
NISTのプライバシリスク評価方法論からの教訓
- Authors: Ero Balsa
- Abstract要約: プライバシ・リスク・アセスメントは、組織がプライバシ・バイ・デザインを実装することを奨励する、客観的で原則化された方法として評価されてきた。
既存のガイドラインや手法はあいまいであり、プライバシーの害に関する実証的な証拠はほとんどない。
実用的で技術的アプローチの限界と落とし穴を強調します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy risk assessments have been touted as an objective, principled way to
encourage organizations to implement privacy-by-design. They are central to a
new regulatory model of collaborative governance, as embodied by the GDPR.
However, existing guidelines and methods remain vague, and there is little
empirical evidence on privacy harms. In this paper we conduct a close analysis
of US NIST's Privacy Risk Assessment Methodology, highlighting multiple sites
of discretion that create countless opportunities for adversarial organizations
to engage in performative compliance. Our analysis shows that the premises on
which the success of privacy risk assessments depends do not hold, particularly
in regard to organizations' incentives and regulators auditing capabilities. We
highlight the limitations and pitfalls of what is essentially a utilitarian and
technocratic approach, leading us to discuss alternatives and a realignment of
our policy and research objectives.
- Abstract(参考訳): プライバシリスクアセスメントは、組織に設計によるプライバシの実施を奨励する、客観的で原則化された方法だと言われている。
彼らはGDPRによって具現化されているように、コラボレーションガバナンスの新しい規制モデルの中心である。
しかし、既存のガイドラインや手法はあいまいであり、プライバシー侵害に関する実証的な証拠はほとんどない。
本稿では,米国NISTのプライバシ・リスク・アセスメント・方法論を綿密に分析し,敵組織が行動的コンプライアンスに携わる無数の機会を生み出す複数の裁量サイトを明らかにする。
分析の結果,プライバシリスクアセスメントが成功する前提は,特に組織のインセンティブや規制当局の監査能力に左右されないことが示された。
我々は、基本的に実用的かつ技術的アプローチの限界と落とし穴を強調し、代替案について議論し、政策と研究の目的を明確にする。
関連論文リスト
- A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [67.38554763406098]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、安全を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Open Government Data Programs and Information Privacy Concerns: A
Literature Review [0.0]
発見は、公正な情報慣行、再識別リスク、オープン政府データ(OGD)価値提案との矛盾、スマートシティデータプラクティスが文献における重要なプライバシー上の懸念であることを示している。
提案されている解決策には、プライバシーの懸念を軽減するための技術的、法的、手続き的な措置が含まれる。
論文 参考訳(メタデータ) (2023-12-14T16:03:49Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - Auditing and Generating Synthetic Data with Controllable Trust
Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Normative Challenges of Risk Regulation of Artificial Intelligence and
Automated Decision-Making [0.0]
人工知能(AI)と自動意思決定(ADM)の規制をめざす最近の提案
最も顕著な例は、欧州委員会によって提案された人工知能法(AIA)である。
本稿では、主に関連する特定のリスクの種類から生じる適切なリスク規制の課題に対処する。
論文 参考訳(メタデータ) (2022-11-11T13:57:38Z) - Quantitative AI Risk Assessments: Opportunities and Challenges [9.262092738841979]
AIベースのシステムは、組織、個人、社会に価値を提供するために、ますます活用されている。
リスクは、提案された規制、訴訟、および一般的な社会的懸念につながった。
本稿では,定量的AIリスクアセスメントの概念について考察する。
論文 参考訳(メタデータ) (2022-09-13T21:47:25Z) - ZETAR: Modeling and Computational Design of Strategic and Adaptive
Compliance Policies [19.9521399287127]
我々は、インサイダーのインセンティブをモデル化するための定量的アプローチを提供するため、ゼロトラスト監査・レコメンデーションフレームワークZETARを開発した。
政策分離性原理と集合凸性を同定し、有限ステップアルゴリズムが完全信頼に値する(CT)ポリシーセットを効率的に学習できるようにする。
以上の結果から,ZETARはリスクやコンプライアンスの態度の異なるインサイダーに適応でき,コンプライアンスを大幅に改善できることがわかった。
論文 参考訳(メタデータ) (2022-04-05T15:46:31Z) - Safe Policy Learning through Extrapolation: Application to Pre-trial
Risk Assessment [0.0]
我々は,政策の期待された効用を部分的に識別する頑健な最適化手法を開発し,その上で最適な政策を見出す。
このアプローチを、アルゴリズムレコメンデーションの助けを借りて人間が決定する、一般的で重要な設定にまで拡張する。
我々は,既存のリスク評価機器の透明性と解釈可能性を維持する新たな分類・勧告ルールを導出する。
論文 参考訳(メタデータ) (2021-09-22T00:52:03Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy
Gradients [93.65993173260318]
報酬を最大化するポリシーを訓練し、そのアクションを通じて特定の機密状態変数の開示を最小化するタスクを考える。
この設定は、シーケンシャルな意思決定のためのプライバシーにおける現実世界の問題をどのようにカバーするかを例に示します。
実験の結果,本手法は敏感な状態を隠蔽する方針が得られた。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。