論文の概要: Wildest Dreams: Reproducible Research in Privacy-preserving Neural
Network Training
- arxiv url: http://arxiv.org/abs/2403.03592v1
- Date: Wed, 6 Mar 2024 10:25:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 15:23:52.483771
- Title: Wildest Dreams: Reproducible Research in Privacy-preserving Neural
Network Training
- Title(参考訳): Wildest Dreams:プライバシ保護ニューラルネットワークトレーニングにおける再現可能な研究
- Authors: Tanveer Khan, Mindaugas Budzys, Khoa Nguyen, Antonis Michalas
- Abstract要約: この作業は、ユーザデータのプライバシを維持することが最も重要であるMLモデルのトレーニングフェーズに重点を置いている。
我々は、現在のアプローチの理解を容易にする、しっかりとした理論的背景を提供する。
我々は,いくつかの論文の成果を再現し,その分野における既存の研究がオープンサイエンスを支援するレベルについて検討する。
- 参考スコア(独自算出の注目度): 2.853180143237022
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning (ML), addresses a multitude of complex issues in multiple
disciplines, including social sciences, finance, and medical research. ML
models require substantial computing power and are only as powerful as the data
utilized. Due to high computational cost of ML methods, data scientists
frequently use Machine Learning-as-a-Service (MLaaS) to outsource computation
to external servers. However, when working with private information, like
financial data or health records, outsourcing the computation might result in
privacy issues. Recent advances in Privacy-Preserving Techniques (PPTs) have
enabled ML training and inference over protected data through the use of
Privacy-Preserving Machine Learning (PPML). However, these techniques are still
at a preliminary stage and their application in real-world situations is
demanding. In order to comprehend discrepancy between theoretical research
suggestions and actual applications, this work examines the past and present of
PPML, focusing on Homomorphic Encryption (HE) and Secure Multi-party
Computation (SMPC) applied to ML. This work primarily focuses on the ML model's
training phase, where maintaining user data privacy is of utmost importance. We
provide a solid theoretical background that eases the understanding of current
approaches and their limitations. In addition, we present a SoK of the most
recent PPML frameworks for model training and provide a comprehensive
comparison in terms of the unique properties and performances on standard
benchmarks. Also, we reproduce the results for some of the papers and examine
at what level existing works in the field provide support for open science. We
believe our work serves as a valuable contribution by raising awareness about
the current gap between theoretical advancements and real-world applications in
PPML, specifically regarding open-source availability, reproducibility, and
usability.
- Abstract(参考訳): 機械学習(ML)は、社会科学、金融学、医学研究など、様々な分野の複雑な問題に対処する。
MLモデルは、かなりの計算能力を必要とし、データが利用するのと同じくらい強力である。
MLメソッドの計算コストが高いため、データサイエンティストは機械学習・アズ・ア・サービス(MLaaS)を使用して計算を外部サーバにアウトソースすることが多い。
しかし、金融データや健康記録などのプライベート情報を扱う場合、計算のアウトソーシングはプライバシーの問題を引き起こす可能性がある。
プライバシ保存技術(PPT)の最近の進歩は、プライバシ保存機械学習(PPML)を使用して、保護されたデータに対するMLトレーニングと推論を可能にしている。
しかし、これらの技術はまだ初期段階であり、現実の状況における応用が求められている。
本研究は,理論的な研究提案と実際の応用の相違を理解するために,同型暗号化(HE)とSMPC(Secure Multi-party Computation)に着目し,PPMLの過去と現在を考察する。
この研究は主に、ユーザデータのプライバシの維持が最も重要であるmlモデルのトレーニングフェーズに焦点を当てている。
私たちは、現在のアプローチとその限界を理解するのが容易な、しっかりとした理論的背景を提供します。
さらに、モデルトレーニングのための最新のppmlフレームワークのsocを示し、標準ベンチマークにおけるユニークな特性とパフォーマンスの観点で包括的な比較を提供する。
また、いくつかの論文の成果を再現し、この分野の既存の研究がオープンサイエンスを支援するレベルについて検討する。
我々は,PPMLにおける理論的進歩と実世界のアプリケーションとのギャップ,特にオープンソース可用性,再現性,ユーザビリティに対する認識を高めることで,我々の研究が貴重な貢献になると考えている。
関連論文リスト
- Rethinking Machine Unlearning for Large Language Models [89.99791628154274]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - GuardML: Efficient Privacy-Preserving Machine Learning Services Through
Hybrid Homomorphic Encryption [2.611778281107039]
プライバシ保存機械学習(PPML)メソッドは、機械学習モデルのプライバシとセキュリティを保護するために導入された。
現代の暗号方式であるHybrid Homomorphic Encryption (HHE)が最近登場した。
心電図データに基づく心疾患の分類のためのHHEベースのPPMLアプリケーションの開発と評価を行った。
論文 参考訳(メタデータ) (2024-01-26T13:12:52Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the
Ugly [66.19763977571114]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z) - Privacy Adhering Machine Un-learning in NLP [66.17039929803933]
現実の業界では、機械学習を使ってユーザデータに基づくモデルを構築します。
このような委任事項には、データだけでなく、モデルの再トレーニングにも労力が要る。
データの継続的な削除と モデル再訓練のステップはスケールしません
この課題に対処するために、textitMachine Unlearningを提案する。
論文 参考訳(メタデータ) (2022-12-19T16:06:45Z) - SoK: Privacy Preserving Machine Learning using Functional Encryption:
Opportunities and Challenges [1.2183405753834562]
プライバシー保護機械学習(PPML)アプリケーションのための内積-FEおよび準積-FEベースの機械学習モデルに焦点を当てる。
私たちの知る限りでは、FEベースのPPMLアプローチを体系化する最初の作業です。
論文 参考訳(メタデータ) (2022-04-11T14:15:36Z) - Privacy-Preserving Machine Learning: Methods, Challenges and Directions [4.711430413139393]
よく設計されたプライバシー保護機械学習(PPML)ソリューションは、アカデミックや業界から研究の関心が高まりつつある。
本稿では,既存のプライバシ保護手法を体系的にレビューし,様々なPPMLソリューションの評価をガイドするPGUモデルを提案する。
論文 参考訳(メタデータ) (2021-08-10T02:58:31Z) - Privacy-Preserving XGBoost Inference [0.6345523830122165]
採用の大きな障壁は、予測クエリの繊細な性質である。
プライバシ保護機械学習(PPML)の中心的な目標は、暗号化されたクエリをリモートMLサービスに送信できるようにすることだ。
プライバシを保存するXGBoost予測アルゴリズムを提案し,AWS SageMaker上で実証的に評価を行った。
論文 参考訳(メタデータ) (2020-11-09T21:46:07Z) - Machine Learning Force Fields [54.48599172620472]
機械学習(ML)は、計算化学の多くの進歩を可能にした。
最も有望な応用の1つは、MLベースの力場(FF)の構築である。
本稿では,ML-FFの応用と,それらから得られる化学的知見について概説する。
論文 参考訳(メタデータ) (2020-10-14T13:14:14Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z) - Insights into Performance Fitness and Error Metrics for Machine Learning [1.827510863075184]
機械学習(ML)は、高いレベルの認知を達成し、人間のような分析を行うための訓練機械の分野である。
本稿では、回帰アルゴリズムや分類アルゴリズムにおいて、最もよく使われている性能適合度と誤差の測定値について検討する。
論文 参考訳(メタデータ) (2020-05-17T22:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。