論文の概要: Privacy-Preserving Dataset Combination
- arxiv url: http://arxiv.org/abs/2502.05765v2
- Date: Mon, 24 Feb 2025 00:53:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:50:47.930885
- Title: Privacy-Preserving Dataset Combination
- Title(参考訳): プライバシ保護データセットの組み合わせ
- Authors: Keren Fuentes, Mimee Xu, Irene Chen,
- Abstract要約: 我々はSecureKLについて紹介する。SecureKLはプライバシー保護のためのフレームワークで、機密情報を漏らさずに有益なデータパートナーシップを特定できる。
実世界の病院データを用いた実験では、SecureKLは、モデルパフォーマンスを改善する有益なデータパートナーシップをうまく識別する。
これらの結果は、プライバシ保護データコラボレーションが、ハイテイクドメインにおける機械学習アプリケーションを前進させる可能性を示している。
- 参考スコア(独自算出の注目度): 1.9168342959190845
- License:
- Abstract: Access to diverse, high-quality datasets is crucial for machine learning model performance, yet data sharing remains limited by privacy concerns and competitive interests, particularly in regulated domains like healthcare. This dynamic especially disadvantages smaller organizations that lack resources to purchase data or negotiate favorable sharing agreements. We present SecureKL, a privacy-preserving framework that enables organizations to identify beneficial data partnerships without exposing sensitive information. Building on recent advances in dataset combination methods, we develop a secure multiparty computation protocol that maintains strong privacy guarantees while achieving >90\% correlation with plaintext evaluations. In experiments with real-world hospital data, SecureKL successfully identifies beneficial data partnerships that improve model performance for intensive care unit mortality prediction while preserving data privacy. Our framework provides a practical solution for organizations seeking to leverage collective data resources while maintaining privacy and competitive advantages. These results demonstrate the potential for privacy-preserving data collaboration to advance machine learning applications in high-stakes domains while promoting more equitable access to data resources.
- Abstract(参考訳): 多様な高品質データセットへのアクセスは、機械学習モデルのパフォーマンスに不可欠だが、データ共有はプライバシの懸念や競争上の関心、特に医療などの規制された領域によって制限されている。
このダイナミックさは、データを購入したり、良好な共有契約を交渉するリソースが不足している小さな組織を特に不利にする。
我々はSecureKLについて紹介する。SecureKLはプライバシー保護のためのフレームワークで、機密情報を漏らさずに有益なデータパートナーシップを特定できる。
データセットの組み合わせ手法の最近の進歩に基づき, 高いプライバシー保証を維持しつつ, 平文評価と90~%の相関を達成できるセキュアなマルチパーティ計算プロトコルを開発した。
実世界の病院データを用いた実験では、SecureKLは、データプライバシを保護しながら集中治療単位の死亡率予測のためのモデルパフォーマンスを改善する、有益なデータパートナーシップの特定に成功している。
当社のフレームワークは,プライバシと競争上の優位性を維持しつつ,集合データリソースを活用しようとする組織に対して,実用的なソリューションを提供します。
これらの結果は、プライバシ保護データコラボレーションが、データリソースへのより公平なアクセスを促進しながら、ハイテイクドメインにおける機械学習アプリケーションを前進させる可能性を示している。
関連論文リスト
- Differentially Private Federated Learning of Diffusion Models for Synthetic Tabular Data Generation [5.182014186927255]
DP-Fed-FinDiffフレームワークは、微分プライバシー、フェデレーションラーニング、拡散確率モデルの新たな統合である。
複数の実世界の財務データセットに対するDP-Fed-FinDiffの有効性を示す。
その結果、DP-Fed-FinDiffが、高度に規制されたドメインでセキュアなデータ共有とロバストな分析を可能にする可能性を確認した。
論文 参考訳(メタデータ) (2024-12-20T17:30:58Z) - Privacy-Preserving Collaborative Genomic Research: A Real-Life Deployment and Vision [2.7968600664591983]
本稿ではLynx.MDと共同で開発されたゲノム研究のためのプライバシ保護フレームワークを提案する。
このフレームワークは、重要なサイバーセキュリティとプライバシの課題に対処し、プライバシ保護によるゲノムデータの共有と分析を可能にする。
Lynx.MD内でのフレームワークの実装には、ゲノムデータをバイナリ形式に符号化し、制御された摂動技術を通じてノイズを適用することが含まれる。
論文 参考訳(メタデータ) (2024-07-12T05:43:13Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - CaPS: Collaborative and Private Synthetic Data Generation from Distributed Sources [5.898893619901382]
分散データホルダから合成データの協調的かつプライベートな生成のためのフレームワークを提案する。
我々は信頼されたアグリゲータをセキュアなマルチパーティ計算プロトコルに置き換え、差分プライバシー(DP)を介してプライバシを出力する。
MWEM+PGMおよびAIMの最先端選択測度生成アルゴリズムに対するアプローチの適用性とスケーラビリティを実証する。
論文 参考訳(メタデータ) (2024-02-13T17:26:32Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Privacy-Preserving Joint Edge Association and Power Optimization for the
Internet of Vehicles via Federated Multi-Agent Reinforcement Learning [74.53077322713548]
プライバシ保護型共同エッジアソシエーションと電力配分問題について検討する。
提案されたソリューションは、最先端のソリューションよりも高いプライバシレベルを維持しながら、魅力的なトレードオフにぶつかる。
論文 参考訳(メタデータ) (2023-01-26T10:09:23Z) - Collective Privacy Recovery: Data-sharing Coordination via Decentralized
Artificial Intelligence [2.309914459672557]
プライバシリカバリのための複雑な集合的アレンジメントの自動化とスケールアップ方法を示す。
私たちは初めて、時間的、内在的、報酬的、コーディネートされたデータ共有を比較した。
興味深いことに、データ共有のコーディネーションは、誰にとっても勝利だ。
論文 参考訳(メタデータ) (2023-01-15T01:36:46Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - A Critical Overview of Privacy-Preserving Approaches for Collaborative
Forecasting [0.0]
異なるデータ所有者間の協力は、予測品質の改善につながる可能性がある。
ビジネス上の競争要因と個人データ保護の問題から、データ所有者はデータの共有を望まないかもしれない。
本稿では、現状を解析し、データプライバシを保証する既存の方法の欠点をいくつか明らかにする。
論文 参考訳(メタデータ) (2020-04-20T20:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。