論文の概要: Navigating the Designs of Privacy-Preserving Fine-tuning for Large Language Models
- arxiv url: http://arxiv.org/abs/2501.04323v3
- Date: Mon, 20 Jan 2025 17:41:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:16:59.693715
- Title: Navigating the Designs of Privacy-Preserving Fine-tuning for Large Language Models
- Title(参考訳): 大規模言語モデルのためのプライバシ保護ファインチューニング設計のナビゲート
- Authors: Haonan Shi, Tu Ouyang, An Wang,
- Abstract要約: 現実世界の微調整は、モデルプロバイダの知的財産保護、クライアントのデータプライバシ要件、チューニングコストの間に固有の対立に直面します。
プライバシ保護のための微調整のための設計トレードオフを導出するためのいくつかの指標評価指標を提案する。
- 参考スコア(独自算出の注目度): 3.470379197911889
- License:
- Abstract: Instruction tuning has proven effective in enhancing Large Language Models' (LLMs) performance on downstream tasks. However, real-world fine-tuning faces inherent conflicts between model providers' intellectual property protection, clients' data privacy requirements, and tuning costs. While recent approaches like split learning and offsite tuning demonstrate promising architectures for privacy-preserving fine-tuning, there is a gap in systematically addressing the multidimensional trade-offs required for diverse real-world deployments. We propose several indicative evaluation metrics to guide design trade-offs for privacy-preserving fine-tuning and a series of example designs, collectively named GuardedTuning; they result from novel combinations of system architectures with adapted privacy-enhancement methods and emerging computation techniques. Each design represents distinct trade-offs across model utility, privacy guarantees, and costs. Experimental results demonstrate that these designs protect against data reconstruction attacks while maintaining competitive fine-tuning performance.
- Abstract(参考訳): インストラクションチューニングは下流タスクにおけるLarge Language Models(LLM)のパフォーマンス向上に有効であることが証明されている。
しかし、現実世界の微調整は、モデルプロバイダの知的財産保護、クライアントのデータプライバシ要件、チューニングコストの相違に本質的に直面する。
分割学習やオフサイトチューニングといった最近のアプローチは、プライバシ保護のための微調整のための有望なアーキテクチャを示しているが、多様な現実世界のデプロイメントに必要な多次元のトレードオフに、体系的に対処する上でのギャップがある。
本稿では,プライバシ保護ファインタニングのための設計トレードオフのガイドとなるいくつかの指標評価指標と,システムアーキテクチャと適応型プライバシ強化手法と新たな計算手法を組み合わせた一連のサンプル設計を提案する。
それぞれのデザインは、モデルユーティリティ、プライバシ保証、コストという、明確なトレードオフを表しています。
実験結果から,これらの設計はデータ再構成攻撃を防ぎながら,競争力のある微調整性能を維持していることが明らかとなった。
関連論文リスト
- Fine-Tuning Language Models with Differential Privacy through Adaptive Noise Allocation [33.795122935686706]
本稿では,モデルパラメータの重要性に基づいて適応的に付加雑音を割り当てる新しいアルゴリズムANADPを提案する。
ANADPは,一連のデータセットにおいて,通常の微調整と従来のDP微調整のパフォーマンスギャップを狭めることを実証する。
論文 参考訳(メタデータ) (2024-10-03T19:02:50Z) - Revisiting SMoE Language Models by Evaluating Inefficiencies with Task Specific Expert Pruning [78.72226641279863]
SMOE(Sparse Mixture of Expert)モデルは、言語モデリングにおける高密度モデルに代わるスケーラブルな代替品として登場した。
本研究は,SMoEアーキテクチャの設計に関する意思決定を行うために,タスク固有のモデルプルーニングについて検討する。
適応型タスク対応プルーニング手法 UNCURL を導入し,MoE 層当たりの専門家数をオフラインで学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T22:35:03Z) - Implicitly Guided Design with PropEn: Match your Data to Follow the Gradient [52.2669490431145]
PropEnは'matching'にインスパイアされている。
一致したデータセットによるトレーニングは、データ分布内に留まりながら、興味のある性質の勾配を近似することを示す。
論文 参考訳(メタデータ) (2024-05-28T11:30:19Z) - Proteus: Preserving Model Confidentiality during Graph Optimizations [5.44122875495684]
本稿では,独立政党によるモデル最適化を実現する新しいメカニズムであるProteusを提案する。
Proteusは、計算グラフをサブグラフに分割することで、保護されたモデルを難読化する。
私たちの知る限り、Proteusはパフォーマンス最適化中にモデルの機密性に取り組む最初の作品です。
論文 参考訳(メタデータ) (2024-04-18T21:23:25Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Diffusion Model for Data-Driven Black-Box Optimization [54.25693582870226]
我々は、強力な生成AI技術である拡散モデルに注目し、ブラックボックス最適化の可能性について検討する。
本研究では,1)実数値報酬関数のノイズ測定と,2)対比較に基づく人間の嗜好の2種類のラベルについて検討する。
提案手法は,設計最適化問題を条件付きサンプリング問題に再構成し,拡散モデルのパワーを有効活用する。
論文 参考訳(メタデータ) (2024-03-20T00:41:12Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - PRECAD: Privacy-Preserving and Robust Federated Learning via
Crypto-Aided Differential Privacy [14.678119872268198]
フェデレートラーニング(FL)は、複数の参加するクライアントがデータセットをローカルに保持し、モデル更新のみを交換することで、機械学習モデルを協調的にトレーニングすることを可能にする。
既存のFLプロトコルの設計は、データのプライバシやモデルの堅牢性を損なうような攻撃に対して脆弱であることが示されている。
我々はPreCADと呼ばれるフレームワークを開発し、同時に差分プライバシー(DP)を実現し、暗号の助けを借りてモデル中毒攻撃に対する堅牢性を高める。
論文 参考訳(メタデータ) (2021-10-22T04:08:42Z) - PEARL: Data Synthesis via Private Embeddings and Adversarial
Reconstruction Learning [1.8692254863855962]
本稿では, 深層生成モデルを用いたデータ・フレームワークを, 差分的にプライベートな方法で提案する。
当社のフレームワークでは、センシティブなデータは、厳格なプライバシ保証をワンショットで行うことで衛生化されています。
提案手法は理論的に性能が保証され,複数のデータセットに対する経験的評価により,提案手法が適切なプライバシーレベルで他の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-08T18:00:01Z) - GECKO: Reconciling Privacy, Accuracy and Efficiency in Embedded Deep
Learning [5.092028049119383]
NNにおけるIoTデバイスの3次元プライバシ-精度-効率トレードオフを分析します。
設計目的として,私的推論に対する抵抗を明示的に付加するGeckoトレーニング手法を提案する。
論文 参考訳(メタデータ) (2020-10-02T10:36:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。