論文の概要: Asynchronous Federated Learning for Edge-assisted Vehicular Networks
- arxiv url: http://arxiv.org/abs/2208.01901v1
- Date: Wed, 3 Aug 2022 08:05:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 14:21:55.048380
- Title: Asynchronous Federated Learning for Edge-assisted Vehicular Networks
- Title(参考訳): エッジ支援車体ネットワークのための非同期フェデレーション学習
- Authors: Siyuan Wang, Qiong Wu, Qiang Fan, Cui Zhang and Zhengquan Li
- Abstract要約: 車両ネットワークは、訓練データを通じて車両がリアルタイムの車両アプリケーションをサポートすることを可能にする。
従来の連邦学習(FL)では、車両はローカルモデルを得るためにデータをローカルにトレーニングし、RSUにローカルモデルをアップロードしてグローバルモデルを更新する。
従来のFLは、グローバルモデルを同期的に更新する、すなわち、RSUはグローバルモデル更新のためにすべての車両がモデルをアップロードするのを待つ必要がある。
この問題を解決するためには非同期フェデレーション学習(AFL)を提案する必要がある。そこでは、RSUが車両からローカルモデルを受け取ると、グローバルモデルを更新する。
- 参考スコア(独自算出の注目度): 7.624367655819205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vehicular networks enable vehicles support real-time vehicular applications
through training data. Due to the limited computing capability, vehicles
usually transmit data to a road side unit (RSU) at the network edge to process
data. However, vehicles are usually reluctant to share data with each other due
to the privacy issue. For the traditional federated learning (FL), vehicles
train the data locally to obtain a local model and then upload the local model
to the RSU to update the global model, thus the data privacy can be protected
through sharing model parameters instead of data. The traditional FL updates
the global model synchronously, i.e., the RSU needs to wait for all vehicles to
upload their models for the global model updating. However, vehicles may
usually drive out of the coverage of the RSU before they obtain their local
models through training, which reduces the accuracy of the global model. It is
necessary to propose an asynchronous federated learning (AFL) to solve this
problem, where the RSU updates the global model once it receives a local model
from a vehicle. However, the amount of data, computing capability and vehicle
mobility may affect the accuracy of the global model. In this paper, we jointly
consider the amount of data, computing capability and vehicle mobility to
design an AFL scheme to improve the accuracy of the global model. Extensive
simulation experiments have demonstrated that our scheme outperforms the FL
scheme
- Abstract(参考訳): 車両ネットワークは、訓練データを通じてリアルタイムの車両アプリケーションをサポートすることができる。
限られた計算能力のため、車両は通常、ネットワークエッジの路側ユニット(rsu)にデータを送信してデータを処理する。
しかし、車両は通常、プライバシーの問題のために互いにデータを共有するのに消極的だ。
従来の連合学習(fl)では、車両はデータをローカルにトレーニングしてローカルモデルを取得し、ローカルモデルをrsuにアップロードしてグローバルモデルを更新する。
従来のflはグローバルモデルを同期的に更新する。つまり、rsuは全車両がグローバルモデル更新のためにモデルをアップロードするのを待つ必要がある。
しかしながら、車両は通常、訓練を通じてローカルモデルを取得する前にRSUのカバレッジから逸脱し、グローバルモデルの精度を低下させる。
この問題を解決するために非同期連合学習(AFL)を提案する必要がある。そこでは、RSUが車両からローカルモデルを受け取ると、グローバルモデルを更新する。
しかし、データ量、計算能力、車両の移動性が世界モデルの精度に影響を与える可能性がある。
本稿では,データ量,計算能力,車両移動性を共同で検討し,グローバルモデルの精度を向上させるためにAFL方式を設計する。
大規模なシミュレーション実験により、我々のスキームはFLスキームよりも優れていることが示された。
関連論文リスト
- Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Deep Reinforcement Learning Based Vehicle Selection for Asynchronous
Federated Learning Enabled Vehicular Edge Computing [16.169301221410944]
従来の車両ネットワークでは、車両によって生成される計算タスクは通常、処理のためにクラウドにアップロードされる。
本稿では,車両ネットワークのAFLにおけるグローバルモデルの精度を向上させるために,DRLに基づく車両選択方式を提案する。
シミュレーションの結果,提案手法は悪いノードを効果的に除去し,グローバルモデルの集約精度を向上させることができることを示した。
論文 参考訳(メタデータ) (2023-04-06T02:40:00Z) - Boost Decentralized Federated Learning in Vehicular Networks by
Diversifying Data Sources [16.342217928468227]
そこで本稿では,DFLにおけるデータソースの多様化を目的としたDFL-DDS(DFL with diversified Data Sources)アルゴリズムを提案する。
具体的には、各車両は状態ベクトルを保持し、そのモデルに対する各データソースの寄与重量を記録する。
DFLの収束を高めるために、車両は、その状態ベクトルのKL分散を最小化して、各データソースの集約重量を調整する。
論文 参考訳(メタデータ) (2022-09-05T04:01:41Z) - Mobility, Communication and Computation Aware Federated Learning for
Internet of Vehicles [29.476152044104005]
道路車両を学習エージェントとして利用する新しいオンラインFLプラットフォームを提案する。
現代の車両の高度な機能のおかげで、車載センサーは車両が軌道に沿って移動するときにデータを集めることができる。
オンボードプロセッサは、収集されたデータを使用して機械学習モデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-05-17T19:14:38Z) - Federated Learning with Downlink Device Selection [92.14944020945846]
我々は,無線ネットワークのエッジにおいて,プライバシーに敏感なデータを用いてグローバルモデルを協調訓練するフェデレーションエッジ学習について検討した。
パラメータサーバ(PS)は、グローバルモデルを追跡し、無線エッジデバイスと共有して、プライベートローカルデータを使用したトレーニングを行う。
デバイス選択は、PSがデバイスとグローバルモデルを共有するダウンリンクチャネルに基づいて検討する。
論文 参考訳(メタデータ) (2021-07-07T22:42:39Z) - Over-the-Air Federated Learning from Heterogeneous Data [107.05618009955094]
フェデレートラーニング(Federated Learning、FL)は、集中型モデルの分散ラーニングのためのフレームワークである。
我々は,共通局所勾配勾配勾配(SGD)FLアルゴリズムを強化するコンバージェント OTA FL (COTAF) アルゴリズムを開発した。
我々は,COTAFにより誘導されるプリコーディングが,OTA FLを用いて訓練されたモデルの収束率と精度を顕著に向上させることを示す。
論文 参考訳(メタデータ) (2020-09-27T08:28:25Z) - Federated Learning With Quantized Global Model Updates [84.55126371346452]
モバイル端末がローカルデータセットを使用してグローバルモデルをトレーニングできるフェデレーション学習について検討する。
本稿では,大域的モデルと局所的モデル更新の両方を,送信前に量子化する損失FL(LFL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-18T16:55:20Z) - Think Locally, Act Globally: Federated Learning with Local and Global
Representations [92.68484710504666]
フェデレートラーニング(Federated Learning)とは、複数のデバイスに分散したプライベートデータ上でモデルをトレーニングする手法である。
本稿では,各デバイス上でコンパクトな局所表現を共同で学習する新しいフェデレーション学習アルゴリズムを提案する。
また、プライバシが鍵となる実世界のモバイルデータから、パーソナライズされた気分予測のタスクを評価する。
論文 参考訳(メタデータ) (2020-01-06T12:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。