論文の概要: A Survey On Secure Machine Learning
- arxiv url: http://arxiv.org/abs/2505.15124v1
- Date: Wed, 21 May 2025 05:19:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:58.904466
- Title: A Survey On Secure Machine Learning
- Title(参考訳): セキュア機械学習に関する調査
- Authors: Taobo Liao, Taoran Li, Prathamesh Nadkarni,
- Abstract要約: セキュアマルチパーティ計算(MPC)の最近の進歩は、機械学習(ML)領域における適用性を著しく改善している。
このレビューでは、MPCを活用して、データのプライバシを損なうことなく、複数のパーティがMLタスクに参加できるようにする重要なコントリビューションについて検討する。
特殊なソフトウェアフレームワークやドメイン固有言語といった革新は、MLにおけるMPCの採用を合理化している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this survey, we will explore the interaction between secure multiparty computation and the area of machine learning. Recent advances in secure multiparty computation (MPC) have significantly improved its applicability in the realm of machine learning (ML), offering robust solutions for privacy-preserving collaborative learning. This review explores key contributions that leverage MPC to enable multiple parties to engage in ML tasks without compromising the privacy of their data. The integration of MPC with ML frameworks facilitates the training and evaluation of models on combined datasets from various sources, ensuring that sensitive information remains encrypted throughout the process. Innovations such as specialized software frameworks and domain-specific languages streamline the adoption of MPC in ML, optimizing performance and broadening its usage. These frameworks address both semi-honest and malicious threat models, incorporating features such as automated optimizations and cryptographic auditing to ensure compliance and data integrity. The collective insights from these studies highlight MPC's potential in fostering collaborative yet confidential data analysis, marking a significant stride towards the realization of secure and efficient computational solutions in privacy-sensitive industries. This paper investigates a spectrum of SecureML libraries that includes cryptographic protocols, federated learning frameworks, and privacy-preserving algorithms. By surveying the existing literature, this paper aims to examine the efficacy of these libraries in preserving data privacy, ensuring model confidentiality, and fortifying ML systems against adversarial attacks. Additionally, the study explores an innovative application domain for SecureML techniques: the integration of these methodologies in gaming environments utilizing ML.
- Abstract(参考訳): 本稿では,セキュアなマルチパーティ計算と機械学習の分野との相互作用について検討する。
セキュアなマルチパーティ計算(MPC)の最近の進歩は、機械学習(ML)領域における適用性を著しく改善し、プライバシー保護の協調学習のための堅牢なソリューションを提供している。
このレビューでは、MPCを活用して、データのプライバシを損なうことなく、複数のパーティがMLタスクに参加できるようにする重要なコントリビューションについて検討する。
MPCとMLフレームワークの統合により、さまざまなソースから合成データセット上のモデルのトレーニングと評価が容易になり、プロセス全体で機密情報が暗号化されることが保証される。
特殊なソフトウェアフレームワークやドメイン固有言語といったイノベーションは、MLにおけるMPCの採用を合理化し、パフォーマンスを最適化し、その使用を拡大します。
これらのフレームワークは、半正直な脅威モデルと悪意のある脅威モデルの両方に対処し、コンプライアンスとデータの整合性を保証するために、自動最適化や暗号化監査などの機能を取り入れている。
これらの研究から得られた総合的な洞察は、プライバシーに敏感な産業におけるセキュアで効率的な計算ソリューションの実現に向けて、MPCが協調的かつ機密性の高いデータ分析を促進する可能性を強調している。
本稿では,暗号プロトコル,フェデレーション学習フレームワーク,プライバシ保護アルゴリズムなどを含むSecureMLライブラリのスペクトルについて検討する。
本稿では,既存の文献を調査することにより,データプライバシの保護,モデルの機密性の確保,敵攻撃に対するMLシステムの強化などにおいて,これらのライブラリの有効性を検討することを目的とする。
さらに、この研究では、SecureML技術のための革新的なアプリケーションドメイン、すなわち、MLを利用したゲーム環境におけるこれらの方法論の統合について検討している。
関連論文リスト
- LLM-PBE: Assessing Data Privacy in Large Language Models [111.58198436835036]
大規模言語モデル(LLM)は多くのドメインに不可欠なものとなり、データ管理、マイニング、分析におけるアプリケーションを大幅に進歩させた。
この問題の批判的な性質にもかかわらず、LLMにおけるデータプライバシのリスクを総合的に評価する文献は存在しない。
本稿では,LLMにおけるデータプライバシリスクの体系的評価を目的としたツールキットであるLLM-PBEを紹介する。
論文 参考訳(メタデータ) (2024-08-23T01:37:29Z) - Data Collaboration Analysis with Orthonormal Basis Selection and Alignment [2.928964540437144]
基本選択とアライメントフェーズの間に正規正規制約を強制する新しいフレームワークである textbf Orthonormal DC (ODC) を提案する。
任意のターゲットベースを許容する従来のDCとは異なり、ODCはターゲットを正規の正規ベースに制限し、モデルパフォーマンスに関する特定のベースの選択を無視する。
論文 参考訳(メタデータ) (2024-03-05T08:52:16Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - State-of-the-Art Approaches to Enhancing Privacy Preservation of Machine Learning Datasets: A Survey [0.9208007322096533]
本稿では、機械学習(ML)の進化する展望と、その様々な分野における大きな影響について考察する。
プライバシ保護機械学習(PPML)の新たな分野に焦点を当てている。
MLアプリケーションは、通信、金融技術、監視といった産業にとってますます不可欠なものになりつつあるため、プライバシー上の懸念が高まる。
論文 参考訳(メタデータ) (2024-02-25T17:31:06Z) - Federated Learning: A Cutting-Edge Survey of the Latest Advancements and Applications [6.042202852003457]
Federated Learning(FL)は、堅牢な機械学習(ML)モデルを開発するためのテクニックである。
ユーザのプライバシを保護するため、FLでは、大量の生データや潜在的機密データを送信するのではなく、モデル更新を送信する必要がある。
このサーベイは、最新のFLアルゴリズムの包括的な分析と比較を提供する。
論文 参考訳(メタデータ) (2023-10-08T19:54:26Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。