論文の概要: An Efficient Federated Learning Framework for Training Semantic
Communication System
- arxiv url: http://arxiv.org/abs/2310.13236v2
- Date: Thu, 9 Nov 2023 10:52:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 17:34:49.001527
- Title: An Efficient Federated Learning Framework for Training Semantic
Communication System
- Title(参考訳): セマンティックコミュニケーションシステムの訓練のための効果的なフェデレーション学習フレームワーク
- Authors: Loc X. Nguyen, Huy Q. Le, Ye Lin Tun, Pyae Sone Aung, Yan Kyaw Tun,
Zhu Han, Choong Seon Hong
- Abstract要約: ほとんどの意味コミュニケーションシステムは高度なディープラーニングモデルに基づいて構築されている。
プライバシーとセキュリティ上の懸念から、データの送信は制限されている。
我々は、FedLolと呼ばれるクライアントからグローバルモデルを集約するメカニズムを導入します。
- 参考スコア(独自算出の注目度): 29.593406320684448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic communication has emerged as a pillar for the next generation of
communication systems due to its capabilities in alleviating data redundancy.
Most semantic communication systems are built upon advanced deep learning
models whose training performance heavily relies on data availability. Existing
studies often make unrealistic assumptions of a readily accessible data source,
where in practice, data is mainly created on the client side. Due to privacy
and security concerns, the transmission of data is restricted, which is
necessary for conventional centralized training schemes. To address this
challenge, we explore semantic communication in a federated learning (FL)
setting that utilizes client data without leaking privacy. Additionally, we
design our system to tackle the communication overhead by reducing the quantity
of information delivered in each global round. In this way, we can save
significant bandwidth for resource-limited devices and reduce overall network
traffic. Finally, we introduce a mechanism to aggregate the global model from
clients, called FedLol. Extensive simulation results demonstrate the
effectiveness of our proposed technique compared to baseline methods.
- Abstract(参考訳): データ冗長性を緩和する能力により,次世代通信システムの柱としてセマンティック通信が出現している。
ほとんどのセマンティックコミュニケーションシステムは、トレーニングパフォーマンスがデータ可用性に大きく依存する高度なディープラーニングモデル上に構築されている。
既存の研究はしばしば、アクセスしやすいデータソースの非現実的な仮定を行うが、実際には、データは主にクライアント側で作成される。
プライバシーやセキュリティ上の懸念から、データの送信は制限されており、これは従来の集中型トレーニングスキームに必要である。
この課題に対処するために、プライバシを漏らさずにクライアントデータを利用するフェデレートラーニング(FL)環境でセマンティックコミュニケーションを検討する。
さらに,グローバルラウンド毎に配信される情報量を削減することで,通信オーバーヘッドに対処するシステムを設計する。
このように、リソース制限されたデバイスに対してかなりの帯域幅を節約し、ネットワーク全体のトラフィックを削減できる。
最後に、FedLolと呼ばれるクライアントからグローバルモデルを集約するメカニズムを紹介します。
その結果,提案手法の有効性をベースライン法と比較した。
関連論文リスト
- Communication-Efficient Federated Learning through Adaptive Weight
Clustering and Server-Side Distillation [10.541541376305245]
Federated Learning(FL)は、複数のデバイスにわたるディープニューラルネットワークの協調トレーニングのための有望なテクニックである。
FLは、トレーニング中に繰り返しサーバー・クライアント間の通信によって、過剰な通信コストによって妨げられる。
本稿では,動的重みクラスタリングとサーバ側知識蒸留を組み合わせた新しいアプローチであるFedCompressを提案する。
論文 参考訳(メタデータ) (2024-01-25T14:49:15Z) - Coordination-free Decentralised Federated Learning on Complex Networks:
Overcoming Heterogeneity [2.6849848612544]
Federated Learning(FL)は、エッジコンピューティングシナリオで学習タスクを実行するためのフレームワークである。
本稿では,コミュニケーション効率のよい分散フェデレート学習(DFL)アルゴリズムを提案する。
我々のソリューションは、デバイスが直接隣人とのみ通信し、正確なモデルを訓練することを可能にする。
論文 参考訳(メタデータ) (2023-12-07T18:24:19Z) - REFT: Resource-Efficient Federated Training Framework for Heterogeneous
and Resource-Constrained Environments [2.117841684082203]
分散システムでは、フェデレートラーニング(FL)が重要な役割を果たす。
FLは、機械学習のプライバシ強化サブドメインとして出現する。
我々は「不均一・資源制約環境のための資源効率の良いフェデレーション・トレーニング・フレームワーク」を提案する。
論文 参考訳(メタデータ) (2023-08-25T20:33:30Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - DisPFL: Towards Communication-Efficient Personalized Federated Learning
via Decentralized Sparse Training [84.81043932706375]
本稿では,分散型(ピアツーピア)通信プロトコルであるDis-PFLにおいて,新たな個人化フェデレーション学習フレームワークを提案する。
Dis-PFLはパーソナライズされたスパースマスクを使用して、エッジ上のスパースローカルモデルをカスタマイズする。
本手法は,計算複雑性の異なる異種ローカルクライアントに容易に適応できることを実証する。
論文 参考訳(メタデータ) (2022-06-01T02:20:57Z) - Federated Reinforcement Learning at the Edge [1.4271989597349055]
現代のサイバー物理アーキテクチャでは、異なる物理的位置にあるシステムから収集されたデータを使用して適切な振る舞いを学び、不確実な環境に適応する。
本稿では,複数のエージェントが分散的に収集された時系列データに対して,強化学習問題を共同で解決するために,効率的にコミュニケーションを行う必要がある設定について考察する。
通信効率向上のためのアルゴリズムが提案され、理論的保証、実践的実装、数値評価がサポートされている。
論文 参考訳(メタデータ) (2021-12-11T03:28:59Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - CosSGD: Nonlinear Quantization for Communication-efficient Federated
Learning [62.65937719264881]
フェデレーション学習は、これらのクライアントのローカルデータを中央サーバに転送することなく、クライアント間での学習を促進する。
圧縮勾配降下のための非線形量子化を提案し、フェデレーションラーニングで容易に利用することができる。
本システムは,訓練過程の収束と精度を維持しつつ,通信コストを最大3桁まで削減する。
論文 参考訳(メタデータ) (2020-12-15T12:20:28Z) - Communication-Efficient and Distributed Learning Over Wireless Networks:
Principles and Applications [55.65768284748698]
機械学習(ML)は、第5世代(5G)通信システムなどのための有望なイネーブルである。
本稿では、関連するコミュニケーションとMLの原則を概観し、選択したユースケースでコミュニケーション効率と分散学習フレームワークを提示することを目的とする。
論文 参考訳(メタデータ) (2020-08-06T12:37:14Z) - Ternary Compression for Communication-Efficient Federated Learning [17.97683428517896]
フェデレートされた学習は、プライバシ保護とセキュアな機械学習に対する潜在的なソリューションを提供する。
本稿では,第3次フェデレーション平均化プロトコル(T-FedAvg)を提案する。
その結果,提案したT-FedAvgは通信コストの低減に有効であり,非IIDデータの性能も若干向上できることがわかった。
論文 参考訳(メタデータ) (2020-03-07T11:55:34Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。