論文の概要: Resource Allocation and Secure Wireless Communication in the Large Model-based Mobile Edge Computing System
- arxiv url: http://arxiv.org/abs/2407.00347v1
- Date: Sat, 29 Jun 2024 07:29:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 03:35:30.650546
- Title: Resource Allocation and Secure Wireless Communication in the Large Model-based Mobile Edge Computing System
- Title(参考訳): 大規模モデルベースモバイルエッジコンピューティングシステムにおけるリソース割り当てとセキュア無線通信
- Authors: Zefan Wang, Yitong Wang, Jun Zhao,
- Abstract要約: 微調整の大規模モデルは計算集約的であり、多くのユーザにとって実用的ではないことが多い。
これらの課題に対処するために,オフサイトチューニングと物理層セキュリティを組み合わせたシステムを導入する。
本稿では,エッジ上に配置されたデータ所有者と大規模モデル所有者の計算資源配分の最適化に焦点をあてる。
- 参考スコア(独自算出の注目度): 17.170641947389505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid advancement of large models and mobile edge computing, transfer learning, particularly through fine-tuning, has become crucial for adapting models to downstream tasks. Traditionally, this requires users to share their data with model owners for fine-tuning, which is not only costly but also raises significant privacy concerns. Furthermore, fine-tuning large-scale models is computationally intensive and often impractical for many users. To tackle these challenges, we introduce a system that combines offsite-tuning with physical-layer security, which provides local data owners with a lightweight adapter and a compressed emulator. Data owners then fine-tune the adapter locally and securely send it back to the model owners through a confidential channel for integration, ensuring privacy and resource conservation. Our paper focuses on optimizing computational resource allocation among data owners and the large model owner deployed on edge, and on the compression ratio of adapters. We incorporate a secrecy uplink channel to maximize the utility that we defined while minimizing system costs like energy consumption and delay. The optimization uses the Dinkelbach algorithm, fractional programming, successive convex approximation and alternating optimization. Experiments demonstrate our algorithm's superiority over existing methods.
- Abstract(参考訳): 大規模モデルとモバイルエッジコンピューティングの急速な進歩により、トランスファーラーニング、特に微調整によって、下流タスクにモデルを適応させるには、トランスファーラーニングが不可欠になっている。
伝統的に、これはユーザーがモデルオーナーとデータを共有して微調整することを要求する。
さらに、微調整された大規模モデルは計算集約的で、多くのユーザにとって実用的ではないことが多い。
これらの課題に対処するために、オフサイトチューニングと物理層セキュリティを組み合わせたシステムを導入し、ローカルデータ所有者に軽量なアダプタと圧縮エミュレータを提供する。
データ所有者は、アダプタをローカルに微調整し、モデル所有者に機密チャンネルを通じて安全に送信し、プライバシとリソースの保護を保証する。
本稿では,エッジ上に配置されたデータ所有者と大規模モデル所有者の計算資源配分の最適化と,アダプタの圧縮比に着目した。
我々は、エネルギー消費や遅延といったシステムコストを最小化しながら、私たちが定義したユーティリティを最大化するために、秘密のアップリンクチャネルを組み込んだ。
この最適化はディンケルバッハアルゴリズム、分数計画法、連続凸近似および交互最適化を用いる。
実験は既存の手法よりもアルゴリズムの方が優れていることを示す。
関連論文リスト
- SFPrompt: Communication-Efficient Split Federated Fine-Tuning for Large Pre-Trained Models over Resource-Limited Devices [10.10998320880871]
SFPromptは、フェデレーション設定に適したプライバシー保護のための微調整手法である。
分割学習と連合学習を組み合わせてこれらの課題に対処する。
SFPromptは、フェデレートされた完全な微調整アプローチとして、競争力のあるパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-07-24T04:22:37Z) - Efficient Federated Prompt Tuning for Black-box Large Pre-trained Models [62.838689691468666]
我々は,各ローカルデータセットを最適に活用するためのフェデレートブラックボックス・プロンプト・チューニング(Fed-BBPT)を提案する。
Fed-BBPTは、ローカルユーザーがレギュラーアグリゲーションを通じてプロンプトジェネレータを協調的に訓練するのを支援する中央サーバーに重点を置いている。
大規模な微調整とは対照的に、Fed-BBPTは、PTMストレージとローカルマシンの微調整に関連するメモリの課題を、十分にサイドステップで解決している。
論文 参考訳(メタデータ) (2023-10-04T19:30:49Z) - Slimmable Encoders for Flexible Split DNNs in Bandwidth and Resource
Constrained IoT Systems [12.427821850039448]
本稿では,スリム化可能なアンサンブルエンコーダに基づく分割計算手法を提案する。
私たちの設計の主な利点は、計算負荷と送信データサイズを最小限のオーバーヘッドと時間でリアルタイムで適応できることです。
本モデルでは,圧縮効率や実行時間,特にモバイルデバイスの弱い状況において,既存のソリューションよりも優れています。
論文 参考訳(メタデータ) (2023-06-22T06:33:12Z) - FedCLIP: Fast Generalization and Personalization for CLIP in Federated
Learning [18.763298147996238]
近年,プライバシ保護計算の新しいパラダイムとしてフェデレートラーニング(FL)が登場している。
FLはその実際のパフォーマンスを妨げる2つの重要な課題に直面している。
FLにおけるCLIPの迅速な一般化とパーソナライズを実現するためのFedCLIPを提案する。
論文 参考訳(メタデータ) (2023-02-27T02:49:06Z) - Offsite-Tuning: Transfer Learning without Full Model [21.460079553685713]
Offsite-tuningは、プライバシ保護と効率的な転送学習フレームワークである。
オフサイトチューニングは、フルモデルファインチューニングと同等の精度を達成することができる。
論文 参考訳(メタデータ) (2023-02-09T18:59:55Z) - Differentially-Private Data Synthetisation for Efficient Re-Identification Risk Control [3.8811062755861956]
$epsilon$-PrivateSMOTEは、再識別とリンケージ攻撃を防ぐためのテクニックである。
提案手法は,ノイズに起因した逆数による合成データ生成と,高リスクケースを難読化するための差分プライバシー原則を組み合わせたものである。
論文 参考訳(メタデータ) (2022-12-01T13:20:37Z) - On Differential Privacy for Federated Learning in Wireless Systems with
Multiple Base Stations [90.53293906751747]
複数の基地局とセル間干渉を持つ無線システムにおける連合学習モデルを考える。
本稿では,学習過程の収束挙動を,その最適性ギャップの上限を導出することによって示す。
提案するスケジューラは,ランダムなスケジューラと比較して予測平均精度を向上する。
論文 参考訳(メタデータ) (2022-08-25T03:37:11Z) - Augmented Bilinear Network for Incremental Multi-Stock Time-Series
Classification [83.23129279407271]
本稿では,有価証券のセットで事前学習したニューラルネットワークで利用可能な知識を効率的に保持する手法を提案する。
本手法では,既存の接続を固定することにより,事前学習したニューラルネットワークに符号化された事前知識を維持する。
この知識は、新しいデータを用いて最適化された一連の拡張接続によって、新しい証券に対して調整される。
論文 参考訳(メタデータ) (2022-07-23T18:54:10Z) - OSOA: One-Shot Online Adaptation of Deep Generative Models for Lossless
Compression [49.10945855716001]
本稿では,事前学習した深部生成モデルから始まり,そのモデルに動的システムを適用してデータバッチを圧縮する手法を提案する。
実験結果から、バニラOSOAは、トレーニング対象のモデルとスペースに対して、すべてのターゲットに対して1つのモデルを使用することに対して、かなりの時間を節約できることが示された。
論文 参考訳(メタデータ) (2021-11-02T15:18:25Z) - Distributed Reinforcement Learning for Privacy-Preserving Dynamic Edge
Caching [91.50631418179331]
MECネットワークにおけるデバイスのキャッシュヒット率を最大化するために,プライバシ保護型分散ディープポリシー勾配(P2D3PG)を提案する。
分散最適化をモデルフリーなマルコフ決定プロセス問題に変換し、人気予測のためのプライバシー保護フェデレーション学習手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T02:48:27Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。