論文の概要: Efficient Batch Homomorphic Encryption for Vertically Federated XGBoost
- arxiv url: http://arxiv.org/abs/2112.04261v1
- Date: Wed, 8 Dec 2021 12:41:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 14:32:18.711225
- Title: Efficient Batch Homomorphic Encryption for Vertically Federated XGBoost
- Title(参考訳): 垂直フェデレーションXGBoostの効率的なバッチ同型暗号化
- Authors: Wuxing Xu, Hao Fan, Kaixin Li, Kai Yang
- Abstract要約: 本稿では,広範に使用されているXGBoostモデルを,垂直連合学習環境に適用する際の効率問題について検討する。
本稿では,暗号関連および伝送のコストをほぼ半分に削減する,新しいバッチ同型暗号法を提案する。
- 参考スコア(独自算出の注目度): 9.442606239058806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: More and more orgainizations and institutions make efforts on using external
data to improve the performance of AI services. To address the data privacy and
security concerns, federated learning has attracted increasing attention from
both academia and industry to securely construct AI models across multiple
isolated data providers. In this paper, we studied the efficiency problem of
adapting widely used XGBoost model in real-world applications to vertical
federated learning setting. State-of-the-art vertical federated XGBoost
frameworks requires large number of encryption operations and ciphertext
transmissions, which makes the model training much less efficient than training
XGBoost models locally. To bridge this gap, we proposed a novel batch
homomorphic encryption method to cut the cost of encryption-related computation
and transmission in nearly half. This is achieved by encoding the first-order
derivative and the second-order derivative into a single number for encryption,
ciphertext transmission, and homomorphic addition operations. The sum of
multiple first-order derivatives and second-order derivatives can be
simultaneously decoded from the sum of encoded values. We are motivated by the
batch idea in the work of BatchCrypt for horizontal federated learning, and
design a novel batch method to address the limitations of allowing quite few
number of negative numbers. The encode procedure of the proposed batch method
consists of four steps, including shifting, truncating, quantizing and
batching, while the decoding procedure consists of de-quantization and shifting
back. The advantages of our method are demonstrated through theoretical
analysis and extensive numerical experiments.
- Abstract(参考訳): aiサービスのパフォーマンスを改善するために、外部データを使用するように努力する企業や機関がますます増えている。
データプライバシとセキュリティの懸念に対処するため、フェデレーション学習は学界と業界の両方から、複数の分離したデータプロバイダにまたがってセキュアにaiモデルを構築するという関心を集めている。
本稿では,実世界における広く使われているxgboostモデルを垂直フェデレーション学習環境に適用する効率問題について検討した。
最先端の垂直連合型XGBoostフレームワークは、多くの暗号化操作と暗号送信を必要とするため、モデルトレーニングはXGBoostモデルをローカルにトレーニングするよりもはるかに効率的である。
このギャップを埋めるため,我々は暗号関連計算と送信のコストをほぼ半分に削減するバッチ準同型暗号法を提案した。
これは、一階微分と二階微分を暗号化、暗号テキスト送信、準同型加算演算のための単一の番号に符号化することで達成される。
複数の一階微分と二階微分の和は、符号化された値の和から同時に復号することができる。
我々は、水平連合学習のためのBatchCryptの研究におけるバッチアイデアに動機付けられ、非常に少数の負の数を許容する制限に対処する新しいバッチメソッドを設計する。
提案手法の符号化手順は, シフト, 切断, 量子化, バッチ化の4ステップからなるが, 復号処理は非量子化と逆変換の4ステップからなる。
提案手法の利点は,理論解析と広範な数値実験によって実証される。
関連論文リスト
- A Theoretical Perspective for Speculative Decoding Algorithm [60.79447486066416]
EmphSpeculative Decodingは、小さなモデルを使用して、ドラフトトークンのシーケンスと、検証のための大きなモデルをサンプリングする。
本稿では,マルコフ連鎖抽象化による復号化問題を概念化し,理論的な観点から,鍵特性,エファンアウトプットの品質,推論加速度について考察する。
論文 参考訳(メタデータ) (2024-10-30T01:53:04Z) - CryptoTrain: Fast Secure Training on Encrypted Dataset [17.23344104239024]
線形および非線形操作を扱うために,同型暗号化とOblivious Transfer(OT)を併用したハイブリッド暗号プロトコルを開発した。
CCMul-Precomputeと相関した畳み込みをCryptoTrain-Bに統合することにより、迅速かつ効率的なセキュアなトレーニングフレームワークを実現する。
論文 参考訳(メタデータ) (2024-09-25T07:06:14Z) - HexaCoder: Secure Code Generation via Oracle-Guided Synthetic Training Data [60.75578581719921]
大規模言語モデル(LLM)は、自動コード生成に大きな可能性を示している。
最近の研究は、多くのLLM生成コードが深刻なセキュリティ脆弱性を含んでいることを強調している。
我々は,LLMがセキュアなコードを生成する能力を高めるための新しいアプローチであるHexaCoderを紹介する。
論文 参考訳(メタデータ) (2024-09-10T12:01:43Z) - Speculative Diffusion Decoding: Accelerating Language Generation through Diffusion [59.17158389902231]
投機的復号化は,大規模言語モデル推論を高速化する手法として広く採用されている。
本稿では,離散拡散モデルを用いてドラフトシーケンスを生成する投機的復号法を提案する。
論文 参考訳(メタデータ) (2024-08-10T21:24:25Z) - FLUE: Federated Learning with Un-Encrypted model weights [0.0]
フェデレートされた学習により、デバイスは、ローカルに保存されたトレーニングデータを保持しながら、共有モデルを協調的にトレーニングすることができる。
最近の研究では、トレーニング中に暗号化されたモデルパラメータを使うことが強調されている。
本稿では,符号化された局所勾配を暗号化なしで活用する,新しいフェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-26T14:04:57Z) - Learning Linear Block Error Correction Codes [62.25533750469467]
本稿では,バイナリ線形ブロック符号の統一エンコーダデコーダトレーニングを初めて提案する。
また,コード勾配の効率的なバックプロパゲーションのために,自己注意マスキングを行うトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2024-05-07T06:47:12Z) - Parallel Decoding via Hidden Transfer for Lossless Large Language Model Acceleration [54.897493351694195]
本稿では,複数連続するトークンを1つのフォワードパスで同時に復号する,新しい並列復号法,すなわちthithidden Transferを提案する。
加速度測定では,Medusa や Self-Speculative decoding など,単モデル加速技術よりも優れています。
論文 参考訳(メタデータ) (2024-04-18T09:17:06Z) - Efficient Encoder-Decoder Transformer Decoding for Decomposable Tasks [53.550782959908524]
エンコーダ・デコーダモデルのための新しい構成を導入し、構造化された出力と分解可能なタスクの効率を改善する。
提案手法は,インプットを一度エンコードして並列にデコードすることで,トレーニングと推論の効率を向上する。
論文 参考訳(メタデータ) (2024-03-19T19:27:23Z) - Encrypted Dynamic Control exploiting Limited Number of Multiplications and a Method using RLWE-based Cryptosystem [0.3749861135832073]
本稿では,ほとんどの同型暗号方式で実装可能な動的コントローラを暗号化する手法を提案する。
結果として、暗号化されたコントローラは、暗号化されたデータごとに、限られた数の同型乗算しか必要としない。
本稿では,Ring Learning With Errors(RLWE)ベースの暗号システムにおいて,メッセージのベクトルを1つの暗号文に暗号化する手法のカスタマイズを提案する。
論文 参考訳(メタデータ) (2023-07-07T08:24:48Z) - FFConv: Fast Factorized Neural Network Inference on Encrypted Data [9.868787266501036]
本稿では、畳み込みと暗号文のパッキングを統一するFFConvと呼ばれる低ランク分解法を提案する。
先行技術であるLoLaとFalconと比較して,提案手法は,それぞれ最大87%,12%の遅延を減少させる。
論文 参考訳(メタデータ) (2021-02-06T03:10:13Z) - TEDL: A Text Encryption Method Based on Deep Learning [10.428079716944463]
本稿では,TEDLと呼ばれる深層学習に基づく新しいテキスト暗号化手法を提案する。
実験および関連する分析の結果、TEDLはセキュリティ、効率、汎用性に優れ、キー再配布頻度の低いことが示されている。
論文 参考訳(メタデータ) (2020-03-09T11:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。