論文の概要: Outsourced Privacy-Preserving Feature Selection Based on Fully Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2505.12869v1
- Date: Mon, 19 May 2025 08:55:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.499594
- Title: Outsourced Privacy-Preserving Feature Selection Based on Fully Homomorphic Encryption
- Title(参考訳): 完全同型暗号化に基づくオープンソースプライバシ保護機能選択
- Authors: Koki Wakiyama, Tomohiro I, Hiroshi Sakamoto,
- Abstract要約: 特徴選択は、トレーニングデータの一連の機能から意味のあるサブセットを抽出するテクニックである。
本研究では,特徴選択のためのプライバシ保護モデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feature selection is a technique that extracts a meaningful subset from a set of features in training data. When the training data is large-scale, appropriate feature selection enables the removal of redundant features, which can improve generalization performance, accelerate the training process, and enhance the interpretability of the model. This study proposes a privacy-preserving computation model for feature selection. Generally, when the data owner and analyst are the same, there is no need to conceal the private information. However, when they are different parties or when multiple owners exist, an appropriate privacy-preserving framework is required. Although various private feature selection algorithms, they all require two or more computing parties and do not guarantee security in environments where no external party can be fully trusted. To address this issue, we propose the first outsourcing algorithm for feature selection using fully homomorphic encryption. Compared to a prior two-party algorithm, our result improves the time and space complexity O(kn^2) to O(kn log^3 n) and O(kn), where k and n denote the number of features and data samples, respectively. We also implemented the proposed algorithm and conducted comparative experiments with the naive one. The experimental result shows the efficiency of our method even with small datasets.
- Abstract(参考訳): 特徴選択は、トレーニングデータの一連の機能から意味のあるサブセットを抽出するテクニックである。
トレーニングデータが大規模である場合、適切な特徴選択により、一般化性能を改善し、トレーニングプロセスを加速し、モデルの解釈可能性を高めることができる冗長な特徴の除去が可能になる。
本研究では,特徴選択のためのプライバシ保護計算モデルを提案する。
一般的に、データ所有者とアナリストが同じ場合、プライベート情報を隠蔽する必要はない。
しかし、異なるパーティや複数のオーナが存在する場合には、適切なプライバシ保護フレームワークが必要である。
様々なプライベート機能選択アルゴリズムがあるが、それらはすべて2つ以上のコンピュータパーティを必要とし、外部のパーティが完全に信頼できない環境ではセキュリティを保証しない。
この問題に対処するために,完全同型暗号を用いた特徴選択のための最初のアウトソーシングアルゴリズムを提案する。
従来の2要素アルゴリズムと比較して,k と n はそれぞれ特徴数とデータサンプルを表す時間と空間の複雑さ O(kn^2) を O(kn log^3 n) と O(kn) に改善する。
また,提案アルゴリズムを実装し,本手法との比較実験を行った。
実験結果から,小さなデータセットであっても,本手法の有効性が示された。
関連論文リスト
- Scalable Private Partition Selection via Adaptive Weighting [66.09199304818928]
プライベート・セット・ユニオンでは、ユーザーは非有界宇宙からのアイテムのサブセットを保持する。
目標は、ユーザレベルの差分プライバシーを維持しながら、ユーザセットの統一から可能な限り多くのアイテムを出力することである。
そこで本研究では,プライバシに必要なしきい値よりもはるかに重い項目からより少ない項目へ適応的に重みを還元するアルゴリズムであるMaximumDegree (MAD)を提案する。
論文 参考訳(メタデータ) (2025-02-13T01:27:11Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Oracle-Efficient Differentially Private Learning with Public Data [21.771932463130252]
本稿では,関数クラスが非プライベートに学習可能な場合に,公開データを利用してプライベートに学習するアルゴリズムを初めて提案する。
本稿では,関数クラスが凸である場合や,タスクが二項分類である場合の特別な場合において,サンプルの複雑さを改善した特殊アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-13T23:40:50Z) - Privacy-Optimized Randomized Response for Sharing Multi-Attribute Data [1.1510009152620668]
マルチ属性データの共有において最強のプライバシを保証するために,プライバシ最適化ランダム化応答を提案する。
また、近似属性機構を構築するための効率的なアルゴリズムを提案する。
提案手法は,既存の手法に比べて,データセット全体のプライバシー保証を大幅に強化する。
論文 参考訳(メタデータ) (2024-02-12T11:34:42Z) - On Differential Privacy and Adaptive Data Analysis with Bounded Space [76.10334958368618]
差分プライバシーと適応データ分析の2つの関連分野の空間複雑性について検討する。
差分プライバシーで効率的に解くために指数関数的に多くの空間を必要とする問題Pが存在することを示す。
アダプティブデータ分析の研究の行は、アダプティブクエリのシーケンスに応答するのに必要なサンプルの数を理解することに焦点を当てている。
論文 参考訳(メタデータ) (2023-02-11T14:45:31Z) - Optimal Algorithms for Mean Estimation under Local Differential Privacy [55.32262879188817]
そこで本研究では,PrivUnitが局所的プライベートな乱数化器群間の最適分散を実現することを示す。
また,ガウス分布に基づくPrivUnitの新たな変種も開発しており,数学的解析に適しており,同じ最適性保証を享受できる。
論文 参考訳(メタデータ) (2022-05-05T06:43:46Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Privacy preserving n-party scalar product protocol [0.0]
プライバシ保護機械学習は、データを公開することなく、分散データセット上のモデルのトレーニングを可能にする。
プライバシー保護スカラー製品プロトコルは、ベクトルのドット積を公開せずに可能にするもので、その汎用性の一例として人気がある。
本稿では,既存の2党方式に基づく任意の人数の当事者に対するプロトコルの一般化を提案する。
論文 参考訳(メタデータ) (2021-12-17T11:14:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。