論文の概要: Personalized Federated Learning for Generative AI-Assisted Semantic Communications
- arxiv url: http://arxiv.org/abs/2410.02450v1
- Date: Thu, 3 Oct 2024 12:52:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 03:11:05.549217
- Title: Personalized Federated Learning for Generative AI-Assisted Semantic Communications
- Title(参考訳): 生成型AI支援セマンティックコミュニケーションのための個人化フェデレーション学習
- Authors: Yubo Peng, Feibo Jiang, Li Dong, Kezhi Wang, Kun Yang,
- Abstract要約: 我々は,モバイルユーザ(MU)と基地局(BS)の間に展開されるGAI支援セマンティックコミュニケーション(SC)モデルを提案する。
MUのローカルデータを用いてGSCモデルをトレーニングするために、パーソナライズされたセマンティック・フェデレーション・ラーニング(PSFL)を導入する。
PLDでは、各MUは、ローカルリソースに合わせてパーソナライズされたGSCモデルと、学生としてCNN(Convolutional Neural Networks)ベースのSC(CSC)モデルを選択する。
AGPでは、リアルタイム通信環境に応じて集約されたグローバルモデル上でネットワークプルーニングを行い、通信エネルギーを削減します。
- 参考スコア(独自算出の注目度): 29.931169585178818
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Semantic Communication (SC) focuses on transmitting only the semantic information rather than the raw data. This approach offers an efficient solution to the issue of spectrum resource utilization caused by the various intelligent applications on Mobile Users (MUs). Generative Artificial Intelligence (GAI) models have recently exhibited remarkable content generation and signal processing capabilities, presenting new opportunities for enhancing SC. Therefore, we propose a GAI-assisted SC (GSC) model deployed between MUs and the Base Station (BS). Then, to train the GSC model using the local data of MUs while ensuring privacy and accommodating heterogeneous requirements of MUs, we introduce Personalized Semantic Federated Learning (PSFL). This approach incorporates a novel Personalized Local Distillation (PLD) and Adaptive Global Pruning (AGP). In PLD, each MU selects a personalized GSC model as a mentor tailored to its local resources and a unified Convolutional Neural Networks (CNN)-based SC (CSC) model as a student. This mentor model is then distilled into the student model for global aggregation. In AGP, we perform network pruning on the aggregated global model according to real-time communication environments, reducing communication energy. Finally, numerical results demonstrate the feasibility and efficiency of the proposed PSFL scheme.
- Abstract(参考訳): 意味コミュニケーション(SC)は、生データではなく意味情報のみを伝達することに焦点を当てている。
このアプローチは、モバイルユーザ(MU)における様々なインテリジェントアプリケーションによって引き起こされるスペクトルリソース利用の問題に対する効率的な解決策を提供する。
生成人工知能(GAI)モデルは近年,SCを向上する新たな機会として,顕著なコンテンツ生成と信号処理能力を示した。
そこで本稿では,MUと基地局(BS)の間に配置されたGAI支援SC(GSC)モデルを提案する。
次に、MUのローカルデータを用いてGSCモデルをトレーニングし、プライバシーを確保し、MUの異種要件を緩和するために、パーソナライズされたセマンティック・フェデレーション・ラーニング(PSFL)を導入する。
このアプローチには、Personalized Local Distillation(PLD)とAdaptive Global Pruning(AGP)が組み込まれている。
PLDでは、各MUは、ローカルリソースに合わせてパーソナライズされたGSCモデルと、学生としてCNN(Convolutional Neural Networks)ベースのSC(CSC)モデルを選択する。
このメンターモデルは、グローバルアグリゲーションのための学生モデルに蒸留される。
AGPでは、リアルタイム通信環境に応じて集約されたグローバルモデル上でネットワークプルーニングを行い、通信エネルギーを削減します。
最後に,提案手法の有効性と有効性を示す数値計算を行った。
関連論文リスト
- FSSC: Federated Learning of Transformer Neural Networks for Semantic Image Communication [27.79514340995533]
マルチユーザ配置シナリオにおける画像意味コミュニケーションの問題に対処する。
本研究では,Swin Transformer を用いた意味コミュニケーションシステムのためのフェデレートラーニング(FL)戦略を提案する。
論文 参考訳(メタデータ) (2024-07-31T10:25:24Z) - FedTGP: Trainable Global Prototypes with Adaptive-Margin-Enhanced
Contrastive Learning for Data and Model Heterogeneity in Federated Learning [18.916282151435727]
不均一フェデレートラーニング(HtFL)は異種モデルやデータをサポートする能力から注目されている。
我々は,ACL(Adaptive-margin-enhanced Contrastive Learning)を活用して,サーバ上でトレーニング可能なグローバルプロトタイプ(TGP)を学習する,FedTGPという新しいHtFLアプローチを導入する。
論文 参考訳(メタデータ) (2024-01-06T14:43:47Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Unlocking the Potential of Prompt-Tuning in Bridging Generalized and
Personalized Federated Learning [49.72857433721424]
Vision Transformer (ViT) と Visual Prompt Tuning (VPT) は、様々なコンピュータビジョンタスクの効率を改善して最先端のパフォーマンスを実現する。
本稿では,GFL(Generalized FL)とPFL(Personalized FL)を組み合わせた新しいアルゴリズムSGPTを提案する。
論文 参考訳(メタデータ) (2023-10-27T17:22:09Z) - Federated Learning with Neural Graphical Models [2.2721854258621064]
フェデレートラーニング(FL)は、プロプライエタリなデータに基づいたモデルを作成する必要性に対処する。
我々は,局所的なNGMモデルから平均情報を学習するグローバルなNGMモデルを維持するFLフレームワークを開発した。
我々は、CDCの乳幼児死亡データからインサイトを抽出するためのFedNGMsの使用を実験的に実証した。
論文 参考訳(メタデータ) (2023-09-20T23:24:22Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - FedPerfix: Towards Partial Model Personalization of Vision Transformers
in Federated Learning [9.950367271170592]
視覚変換器モデル(ViT)のパーソナライズ方法について検討する。
自己注意層と分類ヘッドがViTの最も敏感な部分であるという知見に基づいて、FedPerfixと呼ばれる新しいアプローチを提案する。
CIFAR-100、OrganAMNIST、Office-Homeのデータセットに対する提案手法の評価を行い、いくつかの先進的なPFL手法と比較してその効果を実証した。
論文 参考訳(メタデータ) (2023-08-17T19:22:30Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - DisPFL: Towards Communication-Efficient Personalized Federated Learning
via Decentralized Sparse Training [84.81043932706375]
本稿では,分散型(ピアツーピア)通信プロトコルであるDis-PFLにおいて,新たな個人化フェデレーション学習フレームワークを提案する。
Dis-PFLはパーソナライズされたスパースマスクを使用して、エッジ上のスパースローカルモデルをカスタマイズする。
本手法は,計算複雑性の異なる異種ローカルクライアントに容易に適応できることを実証する。
論文 参考訳(メタデータ) (2022-06-01T02:20:57Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。