論文の概要: Open Government Data Programs and Information Privacy Concerns: A
Literature Review
- arxiv url: http://arxiv.org/abs/2312.10096v1
- Date: Thu, 14 Dec 2023 16:03:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 18:49:50.495588
- Title: Open Government Data Programs and Information Privacy Concerns: A
Literature Review
- Title(参考訳): オープン政府データプログラムとプライバシー問題:文献レビュー
- Authors: Mehdi Barati
- Abstract要約: 発見は、公正な情報慣行、再識別リスク、オープン政府データ(OGD)価値提案との矛盾、スマートシティデータプラクティスが文献における重要なプライバシー上の懸念であることを示している。
提案されている解決策には、プライバシーの懸念を軽減するための技術的、法的、手続き的な措置が含まれる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study presents a narrative review of the literature on privacy concerns
of Open Government Data (OGD) programs and identifies suggested technical,
procedural, and legal remedies. Peer-reviewed articles were identified and
analysed from major bibliographic databases, including Web of Science, Digital
ACM Library, IEEE Explore Digital Library and Science Direct. Included articles
focus on identifying individual information privacy concerns from the viewpoint
of OGD stakeholders or providing solutions for mitigating concerns and risks.
Papers that discussed and focused on general privacy issues or privacy concerns
of open data in general or open science privacy concerns were excluded. Three
streams of research were identified: 1) exploring privacy concerns and balance
with OGD value propositions, 2) proposing solutions for mitigating privacy
concerns, and 3) developing risk-based frameworks for the OGD program at
different governmental levels. Findings suggest that contradictions with Fair
Information Practices, reidentification risks, conflicts with OGD value
propositions, and smart city data practices are significant privacy concerns in
the literature. Proposed solutions include technical, legal, and procedural
measures to mitigate privacy concerns. Building on the findings, practical
implications and suggested future research directions are provided.
- Abstract(参考訳): 本研究は,オープン・ガバメント・データ(OGD)プログラムのプライバシに関する文献を概説し,技術的,手続き的,法的な対策を提案する。
査読された論文は、Web of Science、Digital ACM Library、IEEE Explore Digital Library、Science Directなど、主要な文献データベースから識別され分析された。
ogd利害関係者の視点から個人の情報プライバシーの懸念を特定すること、あるいは懸念やリスクを軽減するためのソリューションを提供することに重点が置かれている。
一般のプライバシー問題やオープンデータのプライバシー問題、あるいはオープンサイエンスのプライバシー問題について議論し、焦点を当てた論文は除外された。
3つの研究の流れが特定されました
1)プライバシー問題及びOGD価値提案とのバランスを探る。
2)プライバシー上の懸念を緩和するための解決策の提案
3)OGDプログラムのリスクベースのフレームワークを異なる政府レベルで開発する。
発見は、公正な情報慣行、再識別リスク、OGD価値提案との矛盾、スマートシティデータプラクティスが文学における重要なプライバシー上の懸念であることを示している。
提案されたソリューションには、プライバシーの懸念を軽減する技術的、法的、手続き的措置が含まれる。
調査結果に基づいて,実践的意義と今後の研究方向性を示唆する。
関連論文リスト
- PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Technocracy, pseudoscience and performative compliance: the risks of
privacy risk assessments. Lessons from NIST's Privacy Risk Assessment
Methodology [0.0]
プライバシ・リスク・アセスメントは、組織がプライバシ・バイ・デザインを実装することを奨励する、客観的で原則化された方法として評価されてきた。
既存のガイドラインや手法はあいまいであり、プライバシーの害に関する実証的な証拠はほとんどない。
実用的で技術的アプローチの限界と落とし穴を強調します。
論文 参考訳(メタデータ) (2023-08-24T01:32:35Z) - Advancing Differential Privacy: Where We Are Now and Future Directions for Real-World Deployment [100.1798289103163]
差分プライバシ(DP)分野における現状と現状の方法論の詳細なレビューを行う。
論文のポイントとハイレベルな内容は,「認知プライバシ(DP:次のフロンティアへの挑戦)」の議論から生まれた。
この記事では、プライバシの領域におけるアルゴリズムおよび設計決定の基準点を提供することを目標とし、重要な課題と潜在的研究の方向性を強調します。
論文 参考訳(メタデータ) (2023-04-14T05:29:18Z) - How to keep text private? A systematic review of deep learning methods
for privacy-preserving natural language processing [0.38073142980732994]
記事は2016年から2020年にかけて発行されたプライバシー保護NLPに関する60以上の方法を体系的にレビューしている。
本稿では,既存の手法を3つのカテゴリに分類する新しい分類法を提案する。
我々は、データトレーサビリティ、オーバーヘッドデータセットサイズ、埋め込みにおける人間のバイアスの頻度に関するプライバシー保護NLPのオープンな課題について論じる。
論文 参考訳(メタデータ) (2022-05-20T11:29:44Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - A Proposal for Amending Privacy Regulations to Tackle the Challenges
Stemming from Combining Data Sets [0.0]
私たちは、AI駆動のデータ処理プラクティスがもたらす影響を適切に解決する現在のデータ保護規制の能力に、いくつかの欠点に焦点を当てています。
プライバシー規制は個人のプライバシーに対する期待に頼らず、2つの方向の規制改革を推奨する。
論文 参考訳(メタデータ) (2021-11-26T03:30:11Z) - Privacy in Open Search: A Review of Challenges and Solutions [0.6445605125467572]
情報検索(IR)は、攻撃や意図しない文書や検索履歴の開示など、プライバシー上の脅威に晒されている。
この研究は、ユーザの生成したテキストデータを含むタスクに焦点を当て、最近のIR文学におけるプライバシーに関するオープンな課題を強調し、議論することを目的としている。
論文 参考訳(メタデータ) (2021-10-20T18:38:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。