論文の概要: Federated Transfer-Ordered-Personalized Learning for Driver Monitoring
Application
- arxiv url: http://arxiv.org/abs/2301.04829v1
- Date: Thu, 12 Jan 2023 06:12:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 15:20:59.067378
- Title: Federated Transfer-Ordered-Personalized Learning for Driver Monitoring
Application
- Title(参考訳): ドライバモニタリングアプリケーションのためのフェデレーション転送順序付き個人学習
- Authors: Liangqi Yuan, Lu Su, Ziran Wang
- Abstract要約: フェデレートラーニング(FL)は、モノのインターネット(IoT)において、コラボレーティブラーニングを実現する能力によって輝く。
FLは、車両のインターネット(IoV)上のドライバ監視アプリケーション(DMA)など、さまざまな領域に適用されている。
本稿では,FedTOP(Federated Transfer-ordered-personalized Learning)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 15.731990691086123
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) shines through in the internet of things (IoT) with
its ability to realize collaborative learning and improve learning efficiency
by sharing client model parameters trained on local data. Although FL has been
successfully applied to various domains, including driver monitoring
application (DMA) on the internet of vehicles (IoV), its usages still face some
open issues, such as data and system heterogeneity, large-scale parallelism
communication resources, malicious attacks, and data poisoning. This paper
proposes a federated transfer-ordered-personalized learning (FedTOP) framework
to address the above problems and test on two real-world datasets with and
without system heterogeneity. The performance of the three extensions,
transfer, ordered, and personalized, is compared by an ablation study and
achieves 92.32% and 95.96% accuracy on the test clients of two datasets,
respectively. Compared to the baseline, there is a 462% improvement in accuracy
and a 37.46% reduction in communication resource consumption. The results
demonstrate that the proposed FedTOP can be used as a highly accurate,
streamlined, privacy-preserving, cybersecurity-oriented, personalized framework
for DMA.
- Abstract(参考訳): フェデレートラーニング(FL)は、IoT(Internet of Things)において、コラボレーティブラーニングを実現し、ローカルデータでトレーニングされたクライアントモデルパラメータを共有することで学習効率を向上させる能力によって、輝く。
flは、internet of vehicles(iov)のドライバ監視アプリケーション(dma)など、さまざまなドメインでうまく適用されているが、データやシステムの不均一性、大規模並列通信リソース、悪意のある攻撃、データ中毒など、まだいくつかのオープンな問題に直面している。
本稿では,上記の問題に対処するためのフェデレーション・トランスファー・オーダード・パーソナライズド・ラーニング(fedtop)フレームワークを提案する。
3つの拡張、転送、順序、パーソナライズのパフォーマンスはアブレーション調査により比較され、2つのデータセットのテストクライアントでそれぞれ92.32%と95.96%の精度を達成した。
ベースラインと比較すると、精度は462%向上し、通信リソース消費量は37.46%減少している。
その結果,提案されたfeedtopは,高度に精度が高く,合理化され,プライバシを保護し,サイバーセキュリティ指向で,dma用のパーソナライズされたフレームワークとして使用することができる。
関連論文リスト
- FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Efficient Semi-Supervised Federated Learning for Heterogeneous
Participants [23.664515443297674]
そこで本研究では,SFLをクラスタリング正規化して,未ラベルおよび非IIDクライアントデータを用いたより実践的なシナリオ下でSFLを実行する,新しいセミSFLシステムを提案する。
我々のシステムは、トレーニングデータセットの3.0倍のスピードアップを提供し、通信コストを目標精度まで約70.3%削減する。
論文 参考訳(メタデータ) (2023-07-29T02:35:37Z) - HFedMS: Heterogeneous Federated Learning with Memorable Data Semantics
in Industrial Metaverse [49.1501082763252]
本稿では,新しい産業メタバースに実用FLを取り入れたHFEDMSを提案する。
動的グルーピングとトレーニングモード変換によってデータの均一性を低下させる。
そして、圧縮された履歴データセマンティクスを融合することで、忘れられた知識を補う。
ストリームされた非I.d.FEMNISTデータセットに対して,368個のシミュレーションデバイスを用いて実験を行った。
論文 参考訳(メタデータ) (2022-11-07T04:33:24Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - FedADMM: A Robust Federated Deep Learning Framework with Adaptivity to
System Heterogeneity [4.2059108111562935]
Federated Learning(FL)は、エッジデバイスによる大規模データの分散処理のための新興フレームワークである。
本稿では,FLAD FedADMMに基づく新しいプロトコルを提案する。
我々は,FedADMMが通信効率の点で,すべてのベースライン手法を一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-07T15:58:33Z) - Robust Semi-supervised Federated Learning for Images Automatic
Recognition in Internet of Drones [57.468730437381076]
プライバシー保護型UAV画像認識のための半教師付きフェデレートラーニング(SSFL)フレームワークを提案する。
異なるカメラモジュールを使用したUAVによって収集されたローカルデータの数、特徴、分布には大きな違いがある。
本稿では,クライアントがトレーニングに参加する頻度,すなわちFedFreqアグリゲーションルールに基づくアグリゲーションルールを提案する。
論文 参考訳(メタデータ) (2022-01-03T16:49:33Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z) - CatFedAvg: Optimising Communication-efficiency and Classification
Accuracy in Federated Learning [2.2172881631608456]
そこで我々はCatFedAvgというフェデレート学習アルゴリズムを新たに導入した。
コミュニケーション効率は向上するが、NIST戦略のカテゴリカバレッジを用いて学習の質を向上させる。
実験の結果,FedAvgよりもネットワーク転送率が70%低いMデータセットでは,10%の絶対点精度が向上していることがわかった。
論文 参考訳(メタデータ) (2020-11-14T06:52:02Z) - Ternary Compression for Communication-Efficient Federated Learning [17.97683428517896]
フェデレートされた学習は、プライバシ保護とセキュアな機械学習に対する潜在的なソリューションを提供する。
本稿では,第3次フェデレーション平均化プロトコル(T-FedAvg)を提案する。
その結果,提案したT-FedAvgは通信コストの低減に有効であり,非IIDデータの性能も若干向上できることがわかった。
論文 参考訳(メタデータ) (2020-03-07T11:55:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。