論文の概要: P3LS: Partial Least Squares under Privacy Preservation
- arxiv url: http://arxiv.org/abs/2401.14884v1
- Date: Fri, 26 Jan 2024 14:08:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 15:05:16.838144
- Title: P3LS: Partial Least Squares under Privacy Preservation
- Title(参考訳): p3ls:プライバシー保護下の部分最小2乗
- Authors: Du Nguyen Duy, Ramin Nikzad-Langerodi
- Abstract要約: 本稿では,新しいフェデレーション学習手法であるプライバシ保存部分最小方形回帰(P3LS)を提案する。
P3LSは特異値分解(SVD)に基づくPSSアルゴリズムを含み、取り外し可能なランダムマスクを用いる。
我々はP3LSが3つのパーティからなる仮説的バリューチェーンに沿ってプロセスデータを垂直に統合できることを実証する。
- 参考スコア(独自算出の注目度): 1.14219428942199
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern manufacturing value chains require intelligent orchestration of
processes across company borders in order to maximize profits while fostering
social and environmental sustainability. However, the implementation of
integrated, systems-level approaches for data-informed decision-making along
value chains is currently hampered by privacy concerns associated with
cross-organizational data exchange and integration. We here propose
Privacy-Preserving Partial Least Squares (P3LS) regression, a novel federated
learning technique that enables cross-organizational data integration and
process modeling with privacy guarantees. P3LS involves a singular value
decomposition (SVD) based PLS algorithm and employs removable, random masks
generated by a trusted authority in order to protect the privacy of the data
contributed by each data holder. We demonstrate the capability of P3LS to
vertically integrate process data along a hypothetical value chain consisting
of three parties and to improve the prediction performance on several
process-related key performance indicators. Furthermore, we show the numerical
equivalence of P3LS and PLS model components on simulated data and provide a
thorough privacy analysis of the former. Moreover, we propose a mechanism for
determining the relevance of the contributed data to the problem being
addressed, thus creating a basis for quantifying the contribution of
participants.
- Abstract(参考訳): 現代の製造業の価値連鎖は、社会と環境の持続可能性を高めながら利益を最大化するために、企業の境界を越えてプロセスのインテリジェントなオーケストレーションを必要とする。
しかし、バリューチェーンに沿ったデータインフォームド意思決定のための統合システムレベルのアプローチの実装は、現在、組織間のデータ交換と統合に関連するプライバシの懸念によって妨げられている。
本稿では,プライバシ保証を伴う組織間データ統合とプロセスモデリングを可能にする新しいフェデレーション学習手法であるプライバシ保存部分最小広場(P3LS)回帰を提案する。
P3LSは、特異値分解(SVD)ベースのPSSアルゴリズムを含み、信頼できる権威によって生成される取り外し可能なランダムマスクを用いて、各データ保持者が提供したデータのプライバシーを保護する。
本稿では,P3LSが3つのパーティからなる仮説値チェーンに沿ってプロセスデータを垂直に統合し,プロセス関連キーパフォーマンス指標の予測性能を向上させる能力を示す。
さらに,シミュレーションデータ上でのp3lsおよびplsモデルコンポーネントの数値等価性を示し,前者のプライバシーを徹底的に解析する。
さらに,この問題に対する貢献データの関連性を判定するメカニズムを提案し,参加者の貢献度を定量化するための基礎を構築した。
関連論文リスト
- Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Data Collaboration Analysis Over Matrix Manifolds [0.0]
プライバシー保護機械学習(PPML)は、機密情報の保護によってこの問題に対処する。
NRI-DCフレームワークは革新的なアプローチとして登場し、機関間の「データアイランド」問題を解消する可能性がある。
本研究は,これらの協調関数の厳密な理論的基礎を確立し,新しい定式化を導入する。
論文 参考訳(メタデータ) (2024-03-05T08:52:16Z) - Libertas: Privacy-Preserving Computation for Decentralised Personal Data Stores [19.54818218429241]
セキュアなマルチパーティ計算をSolidと統合するためのモジュール設計を提案する。
私たちのアーキテクチャであるLibertasでは、基盤となるSolidの設計にプロトコルレベルの変更は必要ありません。
既存の差分プライバシー技術と組み合わせて、出力プライバシーを確保する方法を示す。
論文 参考訳(メタデータ) (2023-09-28T12:07:40Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Towards federated multivariate statistical process control (FedMSPC) [1.8047694351309207]
本稿では、フェデレーション主成分分析(PCA)とセキュアマルチパーティ計算に基づく、プライバシ保護、フェデレーション付き統計プロセス制御(FedMSPC)フレームワークを提案する。
実験により,提案手法の故障検出能力は,標準の単方向(複数方向)PCAと比較して優れていることが示された。
論文 参考訳(メタデータ) (2022-11-03T08:36:30Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - A Critical Overview of Privacy-Preserving Approaches for Collaborative
Forecasting [0.0]
異なるデータ所有者間の協力は、予測品質の改善につながる可能性がある。
ビジネス上の競争要因と個人データ保護の問題から、データ所有者はデータの共有を望まないかもしれない。
本稿では、現状を解析し、データプライバシを保証する既存の方法の欠点をいくつか明らかにする。
論文 参考訳(メタデータ) (2020-04-20T20:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。