論文の概要: Efficient and Privacy-Preserving Binary Dot Product via Multi-Party Computation
- arxiv url: http://arxiv.org/abs/2510.16331v1
- Date: Sat, 18 Oct 2025 03:35:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.950058
- Title: Efficient and Privacy-Preserving Binary Dot Product via Multi-Party Computation
- Title(参考訳): 多人数計算による効率的なプライバシー保護型バイナリドット製品
- Authors: Fatemeh Jafarian Dehkordi, Elahe Vedadi, Alireza Feizbakhsh, Yasaman Keshtkarjahromi, Hulya Seferoglu,
- Abstract要約: 本稿ではビットワイド演算のための新しいバイナリマルチパーティ計算(BiMPC)フレームワークを提案する。
BiMPCの中核はDot Product via Modular Addition (DoMA)と呼ばれる新しいアプローチである。
BiMPCフレームワークのプライバシー保証は厳格に分析され、分散環境での効率性とスケーラビリティを示している。
- 参考スコア(独自算出の注目度): 4.336006969179338
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Striking a balance between protecting data privacy and enabling collaborative computation is a critical challenge for distributed machine learning. While privacy-preserving techniques for federated learning have been extensively developed, methods for scenarios involving bitwise operations, such as tree-based vertical federated learning (VFL), are still underexplored. Traditional mechanisms, including Shamir's secret sharing and multi-party computation (MPC), are not optimized for bitwise operations over binary data, particularly in settings where each participant holds a different part of the binary vector. This paper addresses the limitations of existing methods by proposing a novel binary multi-party computation (BiMPC) framework. The BiMPC mechanism facilitates privacy-preserving bitwise operations, with a particular focus on dot product computations of binary vectors, ensuring the privacy of each individual bit. The core of BiMPC is a novel approach called Dot Product via Modular Addition (DoMA), which uses regular and modular additions for efficient binary dot product calculation. To ensure privacy, BiMPC uses random masking in a higher field for linear computations and a three-party oblivious transfer (triot) protocol for non-linear binary operations. The privacy guarantees of the BiMPC framework are rigorously analyzed, demonstrating its efficiency and scalability in distributed settings.
- Abstract(参考訳): データプライバシ保護とコラボレーティブな計算のバランスを取ることは、分散機械学習にとって重要な課題である。
統合学習のためのプライバシ保存技術は広く開発されているが、木に基づく垂直学習(VFL)のようなビットワイズ操作に関わるシナリオの手法はいまだ検討されていない。
Shamirの秘密共有やマルチパーティ計算(MPC)を含む従来のメカニズムは、特に各参加者がバイナリベクトルの異なる部分を保持する設定において、バイナリデータのビット演算に最適化されていない。
本稿では,新しいバイナリ・マルチパーティ・コンピュテーション(BiMPC)フレームワークを提案することによって,既存の手法の限界に対処する。
BiMPCメカニズムは、バイナリベクトルのドット製品計算に特化して、個々のビットのプライバシを確保することで、プライバシ保護のビットワイズ操作を促進する。
BiMPCの中核はDot Product via Modular Addition (DoMA)と呼ばれる新しいアプローチである。
プライバシを確保するため、BiMPCは線形計算のために高いフィールドでランダムマスキングを使用し、非線形バイナリ操作のための3つのパーティ・オブリベイジ・トランスファー(トリオ)プロトコルを使用する。
BiMPCフレームワークのプライバシー保証は厳格に分析され、分散環境での効率性とスケーラビリティを示している。
関連論文リスト
- BiVM: Accurate Binarized Neural Network for Efficient Video Matting [56.000594826508504]
リアルタイムビデオマッチングのためのディープニューラルネットワークは、エッジデバイスに重大な計算制限を被る。
ビデオマッティングのための正確でリソース効率のよいバイナリニューラルネットワークであるBiVMを提案する。
BiVMは、最先端(SOTA)バイナライゼーション手法を含む、代替のバイナライズされたビデオマッティングネットワークをかなり上回っている。
論文 参考訳(メタデータ) (2025-07-06T16:32:37Z) - Privacy-aware Berrut Approximated Coded Computing applied to general distributed learning [2.8123958518740544]
本稿では,PBACC(Private Berrut Approximate Coded Computing)を,フェデレート学習に強いが不完全なプライバシを付加する一般的なソリューションとして用いることを検討する。
我々は、集中集約のための新しい適応PBACCアルゴリズム、集中型データによる安全な分散トレーニング、分散化されたデータによるセキュアな分散トレーニングを導出する。
論文 参考訳(メタデータ) (2025-05-10T21:27:40Z) - The Communication-Friendly Privacy-Preserving Machine Learning against Malicious Adversaries [14.232901861974819]
プライバシー保護機械学習(PPML)は、機密情報を保護しながらセキュアなデータ分析を可能にする革新的なアプローチである。
セキュアな線形関数評価のための効率的なプロトコルを導入する。
我々は、このプロトコルを拡張して、線形層と非線形層を扱い、幅広い機械学習モデルとの互換性を確保する。
論文 参考訳(メタデータ) (2024-11-14T08:55:14Z) - Federated Binary Matrix Factorization using Proximal Optimization [43.01276597844757]
本稿では,最先端の2値行列分解緩和をBMFに適用する。
提案アルゴリズムは,実世界および合成データの多種多様なセット上で,最先端のBMF手法のフェデレーションスキームにおいて,品質と有効性において優れることを示す。
論文 参考訳(メタデータ) (2024-07-01T20:10:24Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Compacting Binary Neural Networks by Sparse Kernel Selection [58.84313343190488]
本稿は,BNNにおけるバイナリカーネルの分散化がほぼ不可能であることを示すものである。
我々は、選択過程をエンドツーエンドに最適化するだけでなく、選択したコードワードの非反復的占有を維持できる置換ストレートスルー推定器(PSTE)を開発した。
実験により,提案手法はモデルサイズとビット幅の計算コストの両方を削減し,同等の予算下での最先端のBNNと比較して精度の向上を実現する。
論文 参考訳(メタデータ) (2023-03-25T13:53:02Z) - ByzSecAgg: A Byzantine-Resistant Secure Aggregation Scheme for Federated Learning Based on Coded Computing and Vector Commitment [61.540831911168226]
ByzSecAggは、フェデレートラーニングのための効率的なセキュアアグリゲーションスキームである。
ByzSecAggはビザンツの攻撃やプライバシーの漏洩に耐性がある。
論文 参考訳(メタデータ) (2023-02-20T11:15:18Z) - CECILIA: Comprehensive Secure Machine Learning Framework [2.949446809950691]
複雑な操作をプライベートに行えるPPビルディングブロックを提供するセキュアな3パーティフレームワークであるCECILIAを提案する。
CECILIAには2つの新しい方法があり、これは秘密のグラム行列の逆二乗根と秘密の値のパワーに引き上げられた公的な基底の正確な指数関数である。
このフレームワークは、他のMLアルゴリズムと、さらなる計算をプライベートに計算可能にすることを約束している。
論文 参考訳(メタデータ) (2022-02-07T09:27:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。