論文の概要: Resource Allocation and Secure Wireless Communication in the Large Model-based Mobile Edge Computing System
- arxiv url: http://arxiv.org/abs/2407.00347v1
- Date: Sat, 29 Jun 2024 07:29:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 03:35:30.650546
- Title: Resource Allocation and Secure Wireless Communication in the Large Model-based Mobile Edge Computing System
- Title(参考訳): 大規模モデルベースモバイルエッジコンピューティングシステムにおけるリソース割り当てとセキュア無線通信
- Authors: Zefan Wang, Yitong Wang, Jun Zhao,
- Abstract要約: 微調整の大規模モデルは計算集約的であり、多くのユーザにとって実用的ではないことが多い。
これらの課題に対処するために,オフサイトチューニングと物理層セキュリティを組み合わせたシステムを導入する。
本稿では,エッジ上に配置されたデータ所有者と大規模モデル所有者の計算資源配分の最適化に焦点をあてる。
- 参考スコア(独自算出の注目度): 17.170641947389505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid advancement of large models and mobile edge computing, transfer learning, particularly through fine-tuning, has become crucial for adapting models to downstream tasks. Traditionally, this requires users to share their data with model owners for fine-tuning, which is not only costly but also raises significant privacy concerns. Furthermore, fine-tuning large-scale models is computationally intensive and often impractical for many users. To tackle these challenges, we introduce a system that combines offsite-tuning with physical-layer security, which provides local data owners with a lightweight adapter and a compressed emulator. Data owners then fine-tune the adapter locally and securely send it back to the model owners through a confidential channel for integration, ensuring privacy and resource conservation. Our paper focuses on optimizing computational resource allocation among data owners and the large model owner deployed on edge, and on the compression ratio of adapters. We incorporate a secrecy uplink channel to maximize the utility that we defined while minimizing system costs like energy consumption and delay. The optimization uses the Dinkelbach algorithm, fractional programming, successive convex approximation and alternating optimization. Experiments demonstrate our algorithm's superiority over existing methods.
- Abstract(参考訳): 大規模モデルとモバイルエッジコンピューティングの急速な進歩により、トランスファーラーニング、特に微調整によって、下流タスクにモデルを適応させるには、トランスファーラーニングが不可欠になっている。
伝統的に、これはユーザーがモデルオーナーとデータを共有して微調整することを要求する。
さらに、微調整された大規模モデルは計算集約的で、多くのユーザにとって実用的ではないことが多い。
これらの課題に対処するために、オフサイトチューニングと物理層セキュリティを組み合わせたシステムを導入し、ローカルデータ所有者に軽量なアダプタと圧縮エミュレータを提供する。
データ所有者は、アダプタをローカルに微調整し、モデル所有者に機密チャンネルを通じて安全に送信し、プライバシとリソースの保護を保証する。
本稿では,エッジ上に配置されたデータ所有者と大規模モデル所有者の計算資源配分の最適化と,アダプタの圧縮比に着目した。
我々は、エネルギー消費や遅延といったシステムコストを最小化しながら、私たちが定義したユーティリティを最大化するために、秘密のアップリンクチャネルを組み込んだ。
この最適化はディンケルバッハアルゴリズム、分数計画法、連続凸近似および交互最適化を用いる。
実験は既存の手法よりもアルゴリズムの方が優れていることを示す。
関連論文リスト
- A Recommendation Model Utilizing Separation Embedding and Self-Attention for Feature Mining [7.523158123940574]
レコメンデーションシステムは、ユーザのニーズを満たすコンテンツをユーザに提供します。
従来のクリックスルーレート予測とTOP-Kレコメンデーションメカニズムはレコメンデーションのニーズを満たすことができない。
本稿では,ネットワーク間の分離に基づくレコメンデーションシステムモデルを提案する。
論文 参考訳(メタデータ) (2024-10-19T07:49:21Z) - Immersion and Invariance-based Coding for Privacy-Preserving Federated Learning [1.4226399196408985]
協調分散学習におけるプライバシ保護手法として,フェデレートラーニング(FL)が登場している。
制御理論から差分プライバシーとシステム浸漬ツールを組み合わせたプライバシー保護FLフレームワークを提案する。
提案手法は,局所モデルパラメータとグローバルモデルパラメータの両方に対して,任意のレベルの差分プライバシを提供するように調整可能であることを実証する。
論文 参考訳(メタデータ) (2024-09-25T15:04:42Z) - Hyperdimensional Computing Empowered Federated Foundation Model over Wireless Networks for Metaverse [56.384390765357004]
本稿では,新しい基礎モデルのための統合型分割学習と超次元計算フレームワークを提案する。
この新しいアプローチは通信コスト、計算負荷、プライバシーリスクを低減し、Metaverseのリソース制約されたエッジデバイスに適している。
論文 参考訳(メタデータ) (2024-08-26T17:03:14Z) - SFPrompt: Communication-Efficient Split Federated Fine-Tuning for Large Pre-Trained Models over Resource-Limited Devices [10.10998320880871]
SFPromptは、フェデレーション設定に適したプライバシー保護のための微調整手法である。
分割学習と連合学習を組み合わせてこれらの課題に対処する。
SFPromptは、フェデレートされた完全な微調整アプローチとして、競争力のあるパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-07-24T04:22:37Z) - FedCLIP: Fast Generalization and Personalization for CLIP in Federated
Learning [18.763298147996238]
近年,プライバシ保護計算の新しいパラダイムとしてフェデレートラーニング(FL)が登場している。
FLはその実際のパフォーマンスを妨げる2つの重要な課題に直面している。
FLにおけるCLIPの迅速な一般化とパーソナライズを実現するためのFedCLIPを提案する。
論文 参考訳(メタデータ) (2023-02-27T02:49:06Z) - Offsite-Tuning: Transfer Learning without Full Model [21.460079553685713]
Offsite-tuningは、プライバシ保護と効率的な転送学習フレームワークである。
オフサイトチューニングは、フルモデルファインチューニングと同等の精度を達成することができる。
論文 参考訳(メタデータ) (2023-02-09T18:59:55Z) - On Differential Privacy for Federated Learning in Wireless Systems with
Multiple Base Stations [90.53293906751747]
複数の基地局とセル間干渉を持つ無線システムにおける連合学習モデルを考える。
本稿では,学習過程の収束挙動を,その最適性ギャップの上限を導出することによって示す。
提案するスケジューラは,ランダムなスケジューラと比較して予測平均精度を向上する。
論文 参考訳(メタデータ) (2022-08-25T03:37:11Z) - Augmented Bilinear Network for Incremental Multi-Stock Time-Series
Classification [83.23129279407271]
本稿では,有価証券のセットで事前学習したニューラルネットワークで利用可能な知識を効率的に保持する手法を提案する。
本手法では,既存の接続を固定することにより,事前学習したニューラルネットワークに符号化された事前知識を維持する。
この知識は、新しいデータを用いて最適化された一連の拡張接続によって、新しい証券に対して調整される。
論文 参考訳(メタデータ) (2022-07-23T18:54:10Z) - OSOA: One-Shot Online Adaptation of Deep Generative Models for Lossless
Compression [49.10945855716001]
本稿では,事前学習した深部生成モデルから始まり,そのモデルに動的システムを適用してデータバッチを圧縮する手法を提案する。
実験結果から、バニラOSOAは、トレーニング対象のモデルとスペースに対して、すべてのターゲットに対して1つのモデルを使用することに対して、かなりの時間を節約できることが示された。
論文 参考訳(メタデータ) (2021-11-02T15:18:25Z) - Distributed Reinforcement Learning for Privacy-Preserving Dynamic Edge
Caching [91.50631418179331]
MECネットワークにおけるデバイスのキャッシュヒット率を最大化するために,プライバシ保護型分散ディープポリシー勾配(P2D3PG)を提案する。
分散最適化をモデルフリーなマルコフ決定プロセス問題に変換し、人気予測のためのプライバシー保護フェデレーション学習手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T02:48:27Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。