論文の概要: Towards Vertical Privacy-Preserving Symbolic Regression via Secure
Multiparty Computation
- arxiv url: http://arxiv.org/abs/2307.11756v1
- Date: Sat, 22 Jul 2023 07:48:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 19:45:26.095619
- Title: Towards Vertical Privacy-Preserving Symbolic Regression via Secure
Multiparty Computation
- Title(参考訳): セキュアなマルチパーティ計算によるプライバシ保全型シンボリックレグレッション
- Authors: Du Nguyen Duy, Michael Affenzeller, Ramin-Nikzad Langerodi
- Abstract要約: 遺伝的プログラミングはシンボリック回帰の標準的な検索手法である。
プライバシー保護の研究は最近進歩し、この問題に対する解決策を提供するかもしれない。
本稿では,セキュア多人数計算と呼ばれるプライバシ保護技術を用いて,共謀回帰モデルの構築を可能にするアプローチを提案する。
- 参考スコア(独自算出の注目度): 3.9103337761169947
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Symbolic Regression is a powerful data-driven technique that searches for
mathematical expressions that explain the relationship between input variables
and a target of interest. Due to its efficiency and flexibility, Genetic
Programming can be seen as the standard search technique for Symbolic
Regression. However, the conventional Genetic Programming algorithm requires
storing all data in a central location, which is not always feasible due to
growing concerns about data privacy and security. While privacy-preserving
research has advanced recently and might offer a solution to this problem,
their application to Symbolic Regression remains largely unexplored.
Furthermore, the existing work only focuses on the horizontally partitioned
setting, whereas the vertically partitioned setting, another popular scenario,
has yet to be investigated. Herein, we propose an approach that employs a
privacy-preserving technique called Secure Multiparty Computation to enable
parties to jointly build Symbolic Regression models in the vertical scenario
without revealing private data. Preliminary experimental results indicate that
our proposed method delivers comparable performance to the centralized solution
while safeguarding data privacy.
- Abstract(参考訳): 記号回帰は、入力変数と興味の対象との関係を説明する数学的表現を探索する強力なデータ駆動手法である。
その効率性と柔軟性から、遺伝的プログラミングは記号回帰の標準的な探索技術と見なすことができる。
しかし、従来の遺伝的プログラミングアルゴリズムでは、すべてのデータを中央の場所に格納する必要があるため、データのプライバシとセキュリティに関する懸念が高まるため、必ずしも実現不可能である。
プライバシ保護研究は最近進歩しており、この問題に対する解決策を提供するかもしれない。
さらに, 既存の作業は水平分割設定のみに焦点を当てているが, もう一つの一般的なシナリオである垂直分割設定は未だ検討されていない。
本稿では,セキュアなマルチパーティ計算(Secure Multiparty Computation)と呼ばれるプライバシ保護技術を用いて,個人データを明らかにすることなく,縦型シナリオでシンボル回帰モデルを共同構築する手法を提案する。
予備実験の結果,提案手法はデータプライバシを保護しつつ,集中型ソリューションに同等の性能を提供することがわかった。
関連論文リスト
- A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Practical Privacy-Preserving Gaussian Process Regression via Secret
Sharing [23.80837224347696]
本稿では秘密共有(SS)に基づくプライバシー保護型GPR手法を提案する。
コンフュージョン補正(confusion-correction)というアイデアを通じて,新たなSSベースの指数演算を導出し,Cholesky分解に基づくSSベースの行列逆変換アルゴリズムを構築する。
実験結果から,データプライバシ保護の前提として,提案手法が妥当な精度と効率を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-06-26T08:17:51Z) - Differentially-Private Data Synthetisation for Efficient Re-Identification Risk Control [3.8811062755861956]
$epsilon$-PrivateSMOTEは、再識別とリンケージ攻撃を防ぐためのテクニックである。
提案手法は,ノイズに起因した逆数による合成データ生成と,高リスクケースを難読化するための差分プライバシー原則を組み合わせたものである。
論文 参考訳(メタデータ) (2022-12-01T13:20:37Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Efficient Logistic Regression with Local Differential Privacy [0.0]
モノのインターネット(Internet of Things)デバイスは急速に拡大し、大量のデータを生み出している。
これらのデバイスから収集されたデータを探索する必要性が高まっている。
コラボレーション学習は、モノのインターネット(Internet of Things)設定に戦略的ソリューションを提供すると同時に、データのプライバシに関する一般の懸念も引き起こす。
論文 参考訳(メタデータ) (2022-02-05T22:44:03Z) - Linear Model with Local Differential Privacy [0.225596179391365]
プライバシ保護技術は、さまざまな機関間で分散データを解析するために広く研究されている。
セキュアなマルチパーティ計算は、プライバシ保護のために、高いプライバシレベルで、高コストで広く研究されている。
マトリクスマスキング技術は、悪意のある敵に対するセキュアなスキームを暗号化するために用いられる。
論文 参考訳(メタデータ) (2022-02-05T01:18:00Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。