論文の概要: UN Handbook on Privacy-Preserving Computation Techniques
- arxiv url: http://arxiv.org/abs/2301.06167v1
- Date: Sun, 15 Jan 2023 19:43:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 13:38:14.128744
- Title: UN Handbook on Privacy-Preserving Computation Techniques
- Title(参考訳): プライバシ保護計算技術に関する国連ハンドブック
- Authors: David W. Archer, Borja de Balle Pigem, Dan Bogdanov, Mark Craddock,
Adria Gascon, Ronald Jansen, Matja\v{z} Jug, Kim Laine, Robert McLellan, Olga
Ohrimenko, Mariana Raykova, Andrew Trask, Simon Wardley
- Abstract要約: 本稿では,機密データの統計的解析におけるプライバシー保護手法について述べる。
この文書の情報は、統計学者、データサイエンティスト、データキュレーター、アーキテクト、ITスペシャリスト、およびセキュリティおよび情報保証スペシャリストによって使用されることを意図している。
- 参考スコア(独自算出の注目度): 14.63213847614646
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This paper describes privacy-preserving approaches for the statistical
analysis. It describes motivations for privacy-preserving approaches for the
statistical analysis of sensitive data, presents examples of use cases where
such methods may apply and describes relevant technical capabilities to assure
privacy preservation while still allowing analysis of sensitive data. Our focus
is on methods that enable protecting privacy of data while it is being
processed, not only while it is at rest on a system or in transit between
systems. The information in this document is intended for use by statisticians
and data scientists, data curators and architects, IT specialists, and security
and information assurance specialists, so we explicitly avoid cryptographic
technical details of the technologies we describe.
- Abstract(参考訳): 本稿では,統計解析におけるプライバシー保護手法について述べる。
機密データの統計的分析のためのプライバシー保護アプローチのモチベーションを記述し、そのような手法が適用可能なユースケースの例を示し、機密データの分析を引き続き可能にしながら、プライバシー保護を保証するための関連技術機能を記述する。
当社は、処理中のデータのプライバシを保護する方法に重点を置いています。
この文書の情報は、統計学者、データサイエンティスト、データキュレーター、アーキテクト、itスペシャリスト、セキュリティおよび情報保証スペシャリストによって使用されることを意図しており、我々が記述した技術の暗号技術の詳細は明確に避けている。
関連論文リスト
- Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Balancing Innovation and Privacy: Data Security Strategies in Natural Language Processing Applications [3.380276187928269]
本研究では,差分プライバシーに基づく新しいアルゴリズムを導入することにより,自然言語処理(NLP)におけるプライバシ保護に対処する。
差分プライバシー機構を導入することにより、ランダムノイズを付加しながらデータ解析結果の精度と信頼性を確保することができる。
提案アルゴリズムの有効性は、精度(0.89)、精度(0.85)、リコール(0.88)などの性能指標によって実証される。
論文 参考訳(メタデータ) (2024-10-11T06:05:10Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Synergizing Privacy and Utility in Data Analytics Through Advanced Information Theorization [2.28438857884398]
本稿では,高次元画像データに適したノイズ注入技術,ロバストな特徴抽出のための変分オートエンコーダ(VAE),構造化データプライバシに最適化された期待最大化(EM)アプローチの3つの高度なアルゴリズムを紹介する。
本手法は,機密属性と変換データ間の相互情報を著しく低減し,プライバシーを向上する。
この研究は、さまざまなデータタイプにまたがってプライバシ保護アルゴリズムをデプロイするための柔軟で効果的な戦略を提供することによって、この分野に貢献する。
論文 参考訳(メタデータ) (2024-04-24T22:58:42Z) - A Summary of Privacy-Preserving Data Publishing in the Local Setting [0.6749750044497732]
統計開示制御は、機密情報を匿名化して暴露するリスクを最小限にすることを目的としている。
マイクロデータの復号化に使用される現在のプライバシ保存技術について概説し、様々な開示シナリオに適したプライバシ対策を掘り下げ、情報損失と予測性能の指標を評価する。
論文 参考訳(メタデータ) (2023-12-19T04:23:23Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - An Overview of Privacy-enhancing Technologies in Biometric Recognition [12.554656658516262]
この研究は、統一されたフレームワークにおけるバイオメトリックスのためのプライバシー向上技術の概念の概要を提供する。
既存のアプローチの基本的特性と限界を議論し、データ保護技術や原則に関連づける。
本論文は,バイオメトリックデータ保護分野への参入点として,経験豊富な研究者と非専門家を対象としている。
論文 参考訳(メタデータ) (2022-06-21T15:21:29Z) - Semantics-Preserved Distortion for Personal Privacy Protection in Information Management [65.08939490413037]
本稿では,意味的整合性を維持しつつテキストを歪ませる言語学的アプローチを提案する。
本稿では, 意味保存歪みの枠組みとして, 生成的アプローチと置換的アプローチの2つを提示する。
また、特定の医療情報管理シナリオにおけるプライバシ保護についても検討し、機密データの記憶を効果的に制限していることを示す。
論文 参考訳(メタデータ) (2022-01-04T04:01:05Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。