論文の概要: Privacy-Preserving Offloading for Large Language Models in 6G Vehicular Networks
- arxiv url: http://arxiv.org/abs/2509.05320v1
- Date: Sat, 30 Aug 2025 10:08:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.421015
- Title: Privacy-Preserving Offloading for Large Language Models in 6G Vehicular Networks
- Title(参考訳): 6Gベクトルネットワークにおける大規模言語モデルのプライバシ保護オフロード
- Authors: Ikhlasse Badidi, Nouhaila El Khiyaoui, Aya Riany, Badr Ben Elallid, Amine Abouaomar,
- Abstract要約: 本稿では,6G vehicular ネットワークのための新しいプライバシ保護オフロードフレームワークを提案する。
ユーザデータを保護するために,フェデレートラーニング(FL)とディファレンシャルプライバシ(DP)技術を組み合わせたハイブリッドアプローチを導入する。
実験の結果,非プライバシ保存法に比べて75%の精度で2-3%の削減が達成できた。
- 参考スコア(独自算出の注目度): 0.6524460254566904
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integration of Large Language Models (LLMs) in 6G vehicular networks promises unprecedented advancements in intelligent transportation systems. However, offloading LLM computations from vehicles to edge infrastructure poses significant privacy risks, potentially exposing sensitive user data. This paper presents a novel privacy-preserving offloading framework for LLM-integrated vehicular networks. We introduce a hybrid approach combining federated learning (FL) and differential privacy (DP) techniques to protect user data while maintaining LLM performance. Our framework includes a privacy-aware task partitioning algorithm that optimizes the trade-off between local and edge computation, considering both privacy constraints and system efficiency. We also propose a secure communication protocol for transmitting model updates and aggregating results across the network. Experimental results demonstrate that our approach achieves 75\% global accuracy with only a 2-3\% reduction compared to non-privacy-preserving methods, while maintaining DP guarantees with an optimal privacy budget of $\varepsilon = 0.8$. The framework shows stable communication overhead of approximately 2.1MB per round with computation comprising over 90\% of total processing time, validating its efficiency for resource-constrained vehicular environments.
- Abstract(参考訳): 6G車載ネットワークにおけるLarge Language Models (LLMs) の統合は、インテリジェントトランスポートシステムにおける前例のない進歩を約束する。
しかし、車両からエッジインフラストラクチャへのLCM計算のオフロードは、プライバシー上の重大なリスクを生じさせ、機密性の高いユーザデータを侵害する可能性がある。
本稿では,LLM統合車両ネットワークのための新しいプライバシ保護オフロードフレームワークを提案する。
LLM性能を維持しながらユーザデータを保護するために,フェデレートラーニング(FL)とディファレンシャルプライバシ(DP)を組み合わせたハイブリッドアプローチを導入する。
私たちのフレームワークには、プライバシ制約とシステム効率の両方を考慮して、ローカルとエッジの計算のトレードオフを最適化する、プライバシ対応タスク分割アルゴリズムが含まれています。
また、モデル更新を送信し、結果をネットワーク全体に集約するためのセキュアな通信プロトコルを提案する。
提案手法は, プライバシー保護法と比較して, 2~3倍の精度で75~3倍の精度で達成でき, DP保証は最大で$\varepsilon = 0.8$である。
このフレームワークは1ラウンドあたり約2.1MBの安定した通信オーバーヘッドを示し、計算は総処理時間の90%以上を占め、資源に制約された車両環境の効率を検証している。
関連論文リスト
- FedShield-LLM: A Secure and Scalable Federated Fine-Tuned Large Language Model [0.48342038441006796]
Federated Learning (FL)は、LLM(Large Language Models)のトレーニングと微調整のための分散フレームワークを提供する。
FLはプライバシとセキュリティの懸念に対処し、LLMの相当な計算要求に関連する課題をナビゲートする。
ローランド適応 (LoRA) パラメータに対して, 完全同型暗号化 (FHE) を用いたプルーニングを用いた新しいFedShield-LLMを提案する。
論文 参考訳(メタデータ) (2025-06-06T00:05:05Z) - PC-MoE: Memory-Efficient and Privacy-Preserving Collaborative Training for Mixture-of-Experts LLMs [56.04036826558497]
プライバシー保護型コラボレーション・オブ・エクササイズ(PC-MoE)を紹介する。
設計上、PC-MoEは分散計算の強みと強い機密性の保証を相乗的に組み合わせている。
完全に集中したモデルのパフォーマンスと収束率とほぼ一致(時には超える)し、70%近いピークのGPURAMの削減を享受し、再構築攻撃に対して完全に堅牢である。
論文 参考訳(メタデータ) (2025-06-03T15:00:18Z) - PWC-MoE: Privacy-Aware Wireless Collaborative Mixture of Experts [59.5243730853157]
クラウドサーバにホストされる大規模言語モデル(LLM)は、ローカルデバイス上の計算とストレージの負担を軽減するが、プライバシの懸念を高める。
小規模言語モデル(SLM)は、ローカルで実行されるためプライバシーが向上するが、複雑なタスクではパフォーマンスが制限される。
帯域幅制約下での計算コスト,性能,プライバシ保護のバランスをとるために,プライバシを意識したPWC-MoE(PWC-MoE)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-13T16:27:07Z) - Comet: Accelerating Private Inference for Large Language Model by Predicting Activation Sparsity [21.74620410396962]
セキュアなマルチパーティ計算(MPC)は、LLM推論におけるプライバシを保護するための有望なソリューションである。
MPCはサーバ間通信が頻繁に必要であり、高い性能のオーバーヘッドを引き起こす。
本研究では,活性化出力の空間分布を予測するために,高精度かつ高速な予測器を用いた効率的なプライベート推論システムCometを提案する。
Comet は 1.87x-2.63x のスピードアップと 1.94x-2.64x 通信の削減を実現している。
論文 参考訳(メタデータ) (2025-05-12T05:29:30Z) - Model Partition and Resource Allocation for Split Learning in Vehicular Edge Networks [24.85135243655983]
本稿では,これらの課題に対処する新しいU字型分割学習(U-SFL)フレームワークを提案する。
U-SFLは、生のデータとラベルの両方をVU側に置くことで、プライバシー保護を強化することができる。
通信効率を最適化するために,送信データの次元を著しく低減する意味認識型自動エンコーダ(SAE)を導入する。
論文 参考訳(メタデータ) (2024-11-11T07:59:13Z) - PrivateLoRA For Efficient Privacy Preserving LLM [20.750808913757396]
本稿では,エッジデバイス上でプライバシに敏感な計算を分散し,クラウド上で共有する,新たなLarge Language Model(LLM)サービスパラダイムを提案する。
私たちの中心となるイノベーションであるPrivateLoRAは、残余のアクティベーションの低いレベルを活用することで、困難な通信オーバーヘッドに対処しています。
標準的な5Gネットワークの下では、PrivateLoRAは、7Bモデルのデバイスのみのソリューションの300%以上、33BモデルのA100 GPUの80%以上のスループットを実現している。
論文 参考訳(メタデータ) (2023-11-23T14:36:30Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Federated Learning with Sparsification-Amplified Privacy and Adaptive
Optimization [27.243322019117144]
フェデレートラーニング(FL)により、分散エージェントは、生データを互いに共有することなく、集中型モデルを共同で学習することができる。
スパーシフィケーションを増幅した新しいFLフレームワークを提案する。
提案手法では,ランダムなスペーシフィケーションと各エージェントの勾配摂動を統合し,プライバシー保証を増幅する。
論文 参考訳(メタデータ) (2020-08-01T20:22:57Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。