論文の概要: Multi-Layer Privacy-Preserving Record Linkage with Clerical Review based on gradual information disclosure
- arxiv url: http://arxiv.org/abs/2412.04178v1
- Date: Thu, 05 Dec 2024 14:18:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:41:17.641822
- Title: Multi-Layer Privacy-Preserving Record Linkage with Clerical Review based on gradual information disclosure
- Title(参考訳): 段階的情報開示に基づくClerical Reviewによる多層プライバシ保存記録リンク
- Authors: Florens Rohde, Victor Christen, Martin Franke, Erhard Rahm,
- Abstract要約: プライバシ保護レコードリンク(PPRL)は機密情報のデータ統合タスクにおいて不可欠なコンポーネントである。
本稿では,多層能動学習プロセスを用いて,PPRLに聖職者レビューを統合する新しいプライバシ保護プロトコルを提案する。
実世界のデータセットに対する実験的な評価は、ラベル付けの労力の制限とプライバシーリスクによるリンク品質の大幅な改善を示している。
- 参考スコア(独自算出の注目度): 1.2453705483335629
- License:
- Abstract: Privacy-Preserving Record linkage (PPRL) is an essential component in data integration tasks of sensitive information. The linkage quality determines the usability of combined datasets and (machine learning) applications based on them. We present a novel privacy-preserving protocol that integrates clerical review in PPRL using a multi-layer active learning process. Uncertain match candidates are reviewed on several layers by human and non-human oracles to reduce the amount of disclosed information per record and in total. Predictions are propagated back to update previous layers, resulting in an improved linkage performance for non-reviewed candidates as well. The data owners remain in control of the amount of information they share for each record. Therefore, our approach follows need-to-know and data sovereignty principles. The experimental evaluation on real-world datasets shows considerable linkage quality improvements with limited labeling effort and privacy risks.
- Abstract(参考訳): プライバシ保護レコードリンク(PPRL)は機密情報のデータ統合タスクにおいて不可欠なコンポーネントである。
リンク品質は、それらに基づいてデータセットと(機械学習)アプリケーションの組み合わせのユーザビリティを決定する。
本稿では,多層能動学習プロセスを用いて,PPRLに聖職者レビューを統合した新しいプライバシ保護プロトコルを提案する。
不確実なマッチング候補は、人間および非ヒトのオラクルによって複数の層でレビューされ、記録ごとの開示情報量と総量を減らす。
予測は以前のレイヤを更新するために伝達されるため、非レビュー候補のリンク性能も改善される。
データ所有者は、レコードごとに共有する情報の量をコントロールする。
したがって、我々のアプローチは、必要な知識とデータ主権の原則に従う。
実世界のデータセットに対する実験的な評価は、ラベル付けの労力の制限とプライバシーリスクによるリンク品質の大幅な改善を示している。
関連論文リスト
- Evaluating Differential Privacy on Correlated Datasets Using Pointwise Maximal Leakage [38.4830633082184]
データ駆動の進歩はプライバシーに重大なリスクをもたらす。
差分プライバシーは プライバシー保護の 基盤になっている
私たちの研究は、微妙なプライバシーリスクの理解を深め、より効果的なプライバシー保護メカニズムの開発の必要性を強調することを目的としています。
論文 参考訳(メタデータ) (2025-02-08T10:30:45Z) - Towards Split Learning-based Privacy-Preserving Record Linkage [49.1574468325115]
ユーザデータのプライバシが要求されるアプリケーションを容易にするために、Split Learningが導入されている。
本稿では,プライバシ保護記録マッチングのための分割学習の可能性について検討する。
論文 参考訳(メタデータ) (2024-09-02T09:17:05Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - RASE: Efficient Privacy-preserving Data Aggregation against Disclosure Attacks for IoTs [2.1765174838950494]
センサデバイスが生み出すデータを収集・保護する新たなパラダイムについて検討する。
データアグリゲーションとプライバシ保護の共同設計に関するこれまでの研究は、信頼されたフュージョンセンターがプライバシ体制に準拠していることを前提としている。
本稿では,3段階の逐次手順,雑音付加,ランダムな置換,パラメータ推定に一般化可能な新しいパラダイム(RASE)を提案する。
論文 参考訳(メタデータ) (2024-05-31T15:21:38Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Privacy-preserving Deep Learning based Record Linkage [14.755422488889824]
深層学習に基づく複数パーティのプライバシ保存記録リンクプロトコルを提案する。
このアプローチでは,各データベース所有者がまずローカルなディープラーニングモデルをトレーニングし,それをセキュアな環境にアップロードする。
グローバルモデルは、マッチと非マッチを区別するために、リンケージユニットによって使用される。
論文 参考訳(メタデータ) (2022-11-03T22:10:12Z) - Retrieval Enhanced Data Augmentation for Question Answering on Privacy
Policies [74.01792675564218]
本研究では,ラベルのないポリシー文書から関連するテキストセグメントを抽出する検索モデルに基づくデータ拡張フレームワークを開発する。
拡張データの多様性と品質を改善するために,複数の事前学習言語モデル(LM)を活用し,ノイズ低減フィルタモデルでそれらをカスケードする。
PrivacyQAベンチマークの強化データを使用して、既存のベースラインを大きなマージン(10% F1)に高め、新しい最先端のF1スコアを50%達成します。
論文 参考訳(メタデータ) (2022-04-19T15:45:23Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z) - A Critical Overview of Privacy-Preserving Approaches for Collaborative
Forecasting [0.0]
異なるデータ所有者間の協力は、予測品質の改善につながる可能性がある。
ビジネス上の競争要因と個人データ保護の問題から、データ所有者はデータの共有を望まないかもしれない。
本稿では、現状を解析し、データプライバシを保証する既存の方法の欠点をいくつか明らかにする。
論文 参考訳(メタデータ) (2020-04-20T20:21:04Z) - Privacy-Aware Time-Series Data Sharing with Deep Reinforcement Learning [33.42328078385098]
時系列データ共有におけるプライバシーユーティリティトレードオフ(PUT)について検討する。
現時点でのプライバシを保存する方法は、トレースレベルでかなりの量の情報をリークする可能性がある。
我々は、ユーザの真のデータシーケンスの歪んだバージョンを、信頼できない第三者と共有することを検討する。
論文 参考訳(メタデータ) (2020-03-04T18:47:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。