論文の概要: Practical Secure Inference Algorithm for Fine-tuned Large Language Model Based on Fully Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2501.01672v1
- Date: Fri, 03 Jan 2025 07:19:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-06 15:10:35.475008
- Title: Practical Secure Inference Algorithm for Fine-tuned Large Language Model Based on Fully Homomorphic Encryption
- Title(参考訳): 完全同型暗号化に基づく微調整大言語モデルの実用的セキュア推論アルゴリズム
- Authors: Zhang Ruoyan, Zheng Zhongxiang, Bao Wankang,
- Abstract要約: 大規模言語モデル(LLM)の効率的かつセキュアな推論手法を提案する。
オープンソースモデルChatGLM2-6Bを,LoRAで微調整したベースモデルとして使用する。
実験結果から,提案方式の予測効率は1.61s/に向上した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Large language models(LLMs) are currently at the forefront of the machine learning field, which show a broad application prospect but at the same time expose some risks of privacy leakage. We combined Fully Homomorphic Encryption(FHE) and provable security theory with Parameter-Efficient Fine-Tuning(PEFT) to propose an efficient and secure inference scheme for LLMs. More specially, we focus on pre-trained LLMs who rely on open-sourced base model and then fine-tuned with the private datasets by LoRA. This is a popular road-map for Vertical Domain Models such as LawGPT and BenTsao. We use two key technologies below. Firstly, we divide the whole model into the public part and the private part. The weights of public part are publicly accessible(e.g. the open-sourced base model) while the private part needs to be protected(e.g. the LoRA matrices). In this way, the overhead brought by computing on private data can be greatly reduced. Secondly, we propose a general method to transform a linear layer into another one which provides security against model extraction attacks and preserves its original functionality, which denotes as Private Linear Layer(PLL). Then we use this method on the LoRA matrices to make sure that the server protects their private weights without restricting the user's input. We also show that the difficulty of performing model extraction attacks for PLL can be generalized to the well-known hard problem Learning with Errors(LWE). Combing this method with FHE, we can protect user's input at the same time. This transform method can be applied to any linear layer to gain an extra protection against model extraction attacks. In this paper, we use the open-source model ChatGLM2-6B as the base model which is fine-tuned by LoRA. Experimental results show the inference efficiency of our scheme reaches 1.61s/token which shows that the scheme has good practicality.
- Abstract(参考訳): 大規模言語モデル(LLM)は現在、機械学習分野の最前線にあり、幅広いアプリケーションの可能性を示しているが、同時にプライバシー漏洩のリスクも明らかにしている。
完全同型暗号化(FHE)と証明可能なセキュリティ理論とパラメータ効率の良いファインチューニング(PEFT)を組み合わせることで,LLMの効率的かつセキュアな推論手法を提案する。
より具体的には、オープンソースのベースモデルに依存し、LoRAによるプライベートデータセットで微調整された事前訓練されたLLMに焦点を当てる。
これはLawGPTやBenTsaoのような垂直ドメインモデルの一般的なロードマップである。
以下に2つの重要な技術を使っています。
まず、モデル全体を公開部分とプライベート部分に分割する。
公開部分の重みはパブリックアクセス可能(例えば、オープンソースベースモデル)であり、プライベート部分を保護する必要がある(例えば、LoRA行列)。
このように、プライベートデータの計算によってもたらされるオーバーヘッドを大幅に削減することができる。
次に,線形層を他の層に変換する一般的な手法を提案し,モデル抽出攻撃に対するセキュリティを提供し,元の機能を保ちつつ,PLL(Private Linear Layer)と表現する。
次に、この手法をLoRA行列上で使用し、ユーザの入力を制限することなく、サーバがプライベートウェイトを保護できることを確認する。
また,PLLに対するモデル抽出攻撃の難しさを,誤り学習(LWE)に一般化できることを示す。
この手法とFHEを組み合わせることで,ユーザの入力を同時に保護することができる。
この変換法は、任意の線形層に適用して、モデル抽出攻撃に対する余分な保護を得ることができる。
本稿では,オープンソースのChatGLM2-6Bを,LoRAによって微調整されたベースモデルとして利用する。
実験の結果,提案手法の予測効率は1.61s/tokenに向上し,その有効性が示された。
関連論文リスト
- Label Privacy in Split Learning for Large Models with Parameter-Efficient Training [51.28799334394279]
ラベルを非公開にしながら、API上でモデルを微調整する方法を探します。
P$3$EFTは、既存のPEFTプロパティを利用して、より低いパフォーマンスオーバーヘッドでプライバシを維持するマルチパーティ分割学習アルゴリズムである。
論文 参考訳(メタデータ) (2024-12-21T15:32:03Z) - Encryption-Friendly LLM Architecture [11.386436468650016]
ホモモルフィック暗号(homomorphic encryption, HE)は、暗号状態における算術演算をサポートする暗号プロトコルである。
本稿では,パーソナライズされた(プライベートな)微調整による推論を重視した改良型HE-Friendly Transformerアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-10-03T13:48:35Z) - Lifelong Personalized Low-Rank Adaptation of Large Language Models for Recommendation [50.837277466987345]
我々は、推奨のために大規模言語モデル(LLM)の分野に焦点を当てる。
ユーザ毎に独立したLoRAを管理するPersonalized LoRAモジュールを組み込んだRecLoRAを提案する。
また、Few2Many Learning Strategyを設計し、従来のレコメンデーションモデルをレンズとして使用して、小さなトレーニングスペースをフルスペースに拡大する。
論文 参考訳(メタデータ) (2024-08-07T04:20:28Z) - ObfuscaTune: Obfuscated Offsite Fine-tuning and Inference of Proprietary LLMs on Private Datasets [8.483679748399037]
この研究は、モデルプロバイダが所有する独自のLLMの推論と微調整を行うという、未解明のタイムリーな問題に対処する。
本稿では, シンプルで効率的な難読化手法と秘密計算の効率的な利用を併用した, 新規で効率的で完全かつ実用的保存手法であるObfuscaTuneを提案する。
論文 参考訳(メタデータ) (2024-07-03T09:54:08Z) - Safe LoRA: the Silver Lining of Reducing Safety Risks when Fine-tuning Large Language Models [51.20476412037321]
提案するSafe LoRAは,選択した層からのLoRA重みの投影を安全に整合した部分空間に導入することにより,オリジナルのLoRA実装に対する単純なワンライナーパッチである。
我々の実験は、純粋に悪意のあるデータに対して微調整を行う場合、Safe LoRAは元のアライメントモデルと同様の安全性を保っていることを示した。
論文 参考訳(メタデータ) (2024-05-27T05:04:05Z) - Continual Forgetting for Pre-trained Vision Models [70.51165239179052]
現実のシナリオでは、選択的な情報は事前訓練されたモデルから継続的に取り除かれることが期待される。
効率的な削除のためのグループスパースロラ(GS-LoRA)を提案する。
我々は,顔認識,物体検出,画像分類に関する広範な実験を行い,GS-LoRAが他のクラスに最小限の影響で,特定のクラスを忘れることが実証された。
論文 参考訳(メタデータ) (2024-03-18T07:33:56Z) - Pandora's White-Box: Precise Training Data Detection and Extraction in Large Language Models [4.081098869497239]
我々は,大規模言語モデル(LLM)に対する最先端のプライバシ攻撃を開発する。
事前訓練されたLLMに対する新たなメンバーシップ推論攻撃(MIA)は、ベースライン攻撃の数百倍の精度で実行される。
微調整では, ベースモデルと微調整モデルとの損失率に基づく単純な攻撃により, ほぼ完全なMIA性能が得られることがわかった。
論文 参考訳(メタデータ) (2024-02-26T20:41:50Z) - A Fast, Performant, Secure Distributed Training Framework For Large
Language Model [8.547104574876887]
モデルスライシングに基づくセキュア分散LLMを提案する。
クライアント側とサーバ側の両方にTEE(Trusted Execution Environment)をデプロイします。
セキュア通信は、軽量暗号化により、TEEおよび一般的な環境で実行される。
論文 参考訳(メタデータ) (2024-01-18T08:33:09Z) - Self-Play Fine-Tuning Converts Weak Language Models to Strong Language Models [52.98743860365194]
本稿では,SPIN(Self-Play fIne-tuNing)と呼ばれるファインチューニング手法を提案する。
SPINの中心には自己再生機構があり、LLMは自身のインスタンスと対戦することでその能力を洗練させる。
このことは、自己プレイの約束に光を当て、熟練した相手を必要とせずに、LSMにおける人間レベルのパフォーマンスの達成を可能にする。
論文 参考訳(メタデータ) (2024-01-02T18:53:13Z) - Private, Efficient, and Accurate: Protecting Models Trained by
Multi-party Learning with Differential Privacy [8.8480262507008]
セキュアなDPSGDプロトコルと2つの最適化手法からなるPEA(Private, Efficient, Accurate)を提案する。
TF-Encrypted と Queqiao の2つのオープンソース MPL フレームワークで PEA を実装しています。
PEAはLAN設定下7分以内でCIFAR-10の精度88%の差分プライベート分類モデルを訓練できることを示した。
論文 参考訳(メタデータ) (2022-08-18T06:48:25Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。