論文の概要: Secret Sharing based Secure Regressions with Applications
- arxiv url: http://arxiv.org/abs/2004.04898v1
- Date: Fri, 10 Apr 2020 04:04:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 20:37:27.883192
- Title: Secret Sharing based Secure Regressions with Applications
- Title(参考訳): シークレット共有に基づくアプリケーションによるセキュアな回帰
- Authors: Chaochao Chen, Liang Li, Wenjing Fang, Jun Zhou, Li Wang, Lei Wang,
Shuang Yang, Alex Liu, and Hao Wang
- Abstract要約: 複数のデータ保持者が線形回帰とロジスティック回帰モデルを訓練するためのセキュアでスケーラブルなプロトコルを実装している。
私たちは、アプリケーションにおいてスケーラブルで効率的な秘密の共有スキームに基づいて、プロトコルを構築します。
- 参考スコア(独自算出の注目度): 25.493157474615074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, the utilization of the ever expanding amount of data has made a
huge impact on web technologies while also causing various types of security
concerns. On one hand, potential gains are highly anticipated if different
organizations could somehow collaboratively share their data for technological
improvements. On the other hand, data security concerns may arise for both data
holders and data providers due to commercial or sociological concerns. To make
a balance between technical improvements and security limitations, we implement
secure and scalable protocols for multiple data holders to train linear
regression and logistic regression models. We build our protocols based on the
secret sharing scheme, which is scalable and efficient in applications.
Moreover, our proposed paradigm can be generalized to any secure multiparty
training scenarios where only matrix summation and matrix multiplications are
used. We demonstrate our approach by experiments which shows the scalability
and efficiency of our proposed protocols, and finally present its real-world
applications.
- Abstract(参考訳): 今日では、膨大な量のデータの利用がWeb技術に大きな影響を与えつつ、さまざまな種類のセキュリティ上の懸念を引き起こしています。
一方で、さまざまな組織が協力してデータを技術改善のために共有できれば、潜在的な利益は期待できる。
一方で、商業的あるいは社会学的懸念から、データホルダとデータプロバイダの両方にデータセキュリティの懸念が生じる可能性がある。
技術的改善とセキュリティ制限のバランスをとるために,複数のデータ保持者が線形回帰モデルとロジスティック回帰モデルをトレーニングするためのセキュアでスケーラブルなプロトコルを実装した。
私たちは、アプリケーションでスケーラブルで効率的なシークレット共有スキームに基づいてプロトコルを構築します。
さらに,提案手法は,行列和と行列乗算のみを使用するセキュアなマルチパーティトレーニングシナリオに一般化することができる。
提案するプロトコルのスケーラビリティと効率性を示す実験により,本手法を実証し,実世界のアプリケーションを提案する。
関連論文リスト
- PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Data Collaboration Analysis Over Matrix Manifolds [0.0]
プライバシー保護機械学習(PPML)は、機密情報の保護によってこの問題に対処する。
NRI-DCフレームワークは革新的なアプローチとして登場し、機関間の「データアイランド」問題を解消する可能性がある。
本研究は,これらの協調関数の厳密な理論的基礎を確立し,新しい定式化を導入する。
論文 参考訳(メタデータ) (2024-03-05T08:52:16Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Towards Generalizable Data Protection With Transferable Unlearnable
Examples [50.628011208660645]
本稿では、転送不可能な例を生成することによって、新しい一般化可能なデータ保護手法を提案する。
私たちの知る限りでは、これはデータ分散の観点からデータのプライバシを調べる最初のソリューションです。
論文 参考訳(メタデータ) (2023-05-18T04:17:01Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Augmented Bilinear Network for Incremental Multi-Stock Time-Series
Classification [83.23129279407271]
本稿では,有価証券のセットで事前学習したニューラルネットワークで利用可能な知識を効率的に保持する手法を提案する。
本手法では,既存の接続を固定することにより,事前学習したニューラルネットワークに符号化された事前知識を維持する。
この知識は、新しいデータを用いて最適化された一連の拡張接続によって、新しい証券に対して調整される。
論文 参考訳(メタデータ) (2022-07-23T18:54:10Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - APPFLChain: A Privacy Protection Distributed Artificial-Intelligence
Architecture Based on Federated Learning and Consortium Blockchain [6.054775780656853]
APPFLChainと呼ばれる新しいシステムアーキテクチャを提案する。
これはHyperledger Fabricベースのブロックチェーンとフェデレーション学習パラダイムの統合アーキテクチャである。
我々の新しいシステムは、機密性の高い個人情報をサーバに共有する必要がないため、高いセキュリティとプライバシを維持することができる。
論文 参考訳(メタデータ) (2022-06-26T05:30:07Z) - Efficient Logistic Regression with Local Differential Privacy [0.0]
モノのインターネット(Internet of Things)デバイスは急速に拡大し、大量のデータを生み出している。
これらのデバイスから収集されたデータを探索する必要性が高まっている。
コラボレーション学習は、モノのインターネット(Internet of Things)設定に戦略的ソリューションを提供すると同時に、データのプライバシに関する一般の懸念も引き起こす。
論文 参考訳(メタデータ) (2022-02-05T22:44:03Z) - Linear Model with Local Differential Privacy [0.225596179391365]
プライバシ保護技術は、さまざまな機関間で分散データを解析するために広く研究されている。
セキュアなマルチパーティ計算は、プライバシ保護のために、高いプライバシレベルで、高コストで広く研究されている。
マトリクスマスキング技術は、悪意のある敵に対するセキュアなスキームを暗号化するために用いられる。
論文 参考訳(メタデータ) (2022-02-05T01:18:00Z) - Privacy-preserving Logistic Regression with Secret Sharing [0.0]
Newton-Raphson法を用いて秘密共有型プライバシー保護ロジスティック回帰プロトコルを提案する。
提案手法は,複数ソースからのロジスティック回帰を安全にトレーニングするために,大規模なデータセットを処理可能であることを示す。
論文 参考訳(メタデータ) (2021-05-14T14:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。