論文の概要: PraxiMLP: A Threshold-based Framework for Efficient Three-Party MLP with Practical Security
- arxiv url: http://arxiv.org/abs/2511.06104v1
- Date: Sat, 08 Nov 2025 18:56:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.758238
- Title: PraxiMLP: A Threshold-based Framework for Efficient Three-Party MLP with Practical Security
- Title(参考訳): PraxiMLP: 実用的セキュリティを備えた三要素MCPのためのThresholdベースのフレームワーク
- Authors: Tianle Tao, Shizhao Peng, Haogang Zhu,
- Abstract要約: PraxiMLPはプライバシ保護機械学習(PPML)のための高効率な3要素フレームワーク
PraxiMLPは算術領域内で完全に動作し、高価なクロスドメイン変換を避ける。
ローティングポイント数をサポートすることにより、PrxiMLPは非線形関数を正確に処理し、効率と精度の両方を劇的に改善する。
- 参考スコア(独自算出の注目度): 3.0489147795290683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficiency and communication cost remain critical bottlenecks for practical Privacy-Preserving Machine Learning (PPML). Most existing frameworks rely on fixed-point arithmetic for strong security, which introduces significant precision loss and requires expensive cross-domain conversions (e.g., Arithmetic-to-Boolean) for non-linear operations. To address this, we propose PraxiMLP, a highly efficient three-party MLP framework grounded in practical security. The core of our work is a pair of novel additive-to-multiplicative conversion protocols that operate entirely within the arithmetic domain, thus avoiding expensive cross-domain conversions. By natively supporting loating-point numbers, PraxiMLP precisely handles non-linear functions, dramatically improving both efficiency and precision. Experimental results confirm that, compared to mainstream PPML frameworks, PraxiMLP delivers an average 8 orders of magnitude precision improvement on basic protocols and a 5x average model training speedup in a WAN environment.
- Abstract(参考訳): 効率性と通信コストは、実用的プライバシ保存機械学習(PPML)にとって重要なボトルネックである。
既存のフレームワークの多くは、強力なセキュリティのために固定点演算に依存しており、これはかなりの精度の損失をもたらし、非線形操作には高価なクロスドメイン変換(例:Arithmetic-to-Boolean)を必要とする。
そこで本稿では,実践的セキュリティを基盤とした高効率な3要素MLPフレームワークであるPrxiMLPを提案する。
我々の研究の核となるのは、算術領域内で完全に動作し、高価なクロスドメイン変換を避ける新しい加法-乗法変換プロトコルである。
ローティングポイント数をネイティブにサポートすることにより、PrxiMLPは非線形関数を正確に処理し、効率と精度の両方を劇的に改善する。
実験の結果,PraxiMLPは主流のPPMLフレームワークと比較して,基本プロトコルにおける平均8桁の精度向上と,WAN環境における平均5倍のモデルトレーニング高速化を実現していることがわかった。
関連論文リスト
- Efficient Private Inference Based on Helper-Assisted Malicious Security Dishonest Majority MPC [5.797285315996385]
本稿では,Helper-Assisted MSDMモデルに基づく新しい3層プライベート推論フレームワークを提案する。
このフレームワークは、LANの2.4-25.7xスピードアップとWANの1.3-9.5xアクセラレーションを実現している。
論文 参考訳(メタデータ) (2025-07-13T12:24:02Z) - EVA-S2PLoR: Decentralized Secure 2-party Logistic Regression with A Subtly Hadamard Product Protocol (Full Version) [2.1010315462623184]
本稿では, 効率的な, 検証可能な, 正確なセキュリティ2パーティロジスティック回帰フレームワーク(EVA-S2PLoR)を提案する。
下位にセキュアなハダマード製品プロトコルとその導出プロトコルを通じて正確な非線形機能を実現する。
浮動小数点数上の非同期フローと少数の固定通信ラウンドによって、高い効率と精度が保証される。
論文 参考訳(メタデータ) (2025-01-09T13:19:59Z) - Parameter and Computation Efficient Transfer Learning for
Vision-Language Pre-trained Models [79.34513906324727]
本稿では,視覚言語事前学習モデルのためのパラメータと効率的な伝達学習(PCETL)を提案する。
そこで本研究では,新しい動的アーキテクチャスキップ(DAS)アプローチを効果的PCETLに適用する。
論文 参考訳(メタデータ) (2023-09-04T09:34:33Z) - Non-stationary Reinforcement Learning under General Function
Approximation [60.430936031067006]
まず,非定常MDPに対する動的ベルマンエルダー次元(DBE)と呼ばれる新しい複雑性指標を提案する。
提案する複雑性指標に基づいて,SW-OPEAと呼ばれる新しい信頼度セットに基づくモデルフリーアルゴリズムを提案する。
SW-OPEAは,変動予算がそれほど大きくない限り,有効に有効であることを示す。
論文 参考訳(メタデータ) (2023-06-01T16:19:37Z) - LoRAPrune: Structured Pruning Meets Low-Rank Parameter-Efficient Fine-Tuning [56.88751562302793]
低ランク適応 (LoRA) が大型言語モデル (LLM) に登場した。
LoRAPruneは、高度にメモリ効率の良い正確な構造化プルーンドモデルを提供する新しいフレームワークである。
LoRAPruneはWikiText2では4.81、TBでは3.46、メモリ使用量は52.6%減少している。
論文 参考訳(メタデータ) (2023-05-28T15:15:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。