論文の概要: FedAR: Activity and Resource-Aware Federated Learning Model for
Distributed Mobile Robots
- arxiv url: http://arxiv.org/abs/2101.03705v1
- Date: Mon, 11 Jan 2021 05:27:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 20:58:40.291586
- Title: FedAR: Activity and Resource-Aware Federated Learning Model for
Distributed Mobile Robots
- Title(参考訳): fedar: 分散移動ロボットのためのアクティビティとリソースアウェアフェデレーション学習モデル
- Authors: Ahmed Imteaj and M. Hadi Amini
- Abstract要約: 最近提案されたFederated Learning(FL)と呼ばれる機械学習アルゴリズムは、データのプライバシーを維持する道を開く。
本稿では、クライアントのアクティビティを監視し、利用可能なローカルコンピューティングリソースを活用することでFLモデルを提案する。
このような移動ロボットをFLクライアントとみなして,現実の環境での資源制約された動作を理解する。
- 参考スコア(独自算出の注目度): 1.332560004325655
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Smartphones, autonomous vehicles, and the Internet-of-things (IoT) devices
are considered the primary data source for a distributed network. Due to a
revolutionary breakthrough in internet availability and continuous improvement
of the IoT devices capabilities, it is desirable to store data locally and
perform computation at the edge, as opposed to share all local information with
a centralized computation agent. A recently proposed Machine Learning (ML)
algorithm called Federated Learning (FL) paves the path towards preserving data
privacy, performing distributed learning, and reducing communication overhead
in large-scale machine learning (ML) problems. This paper proposes an FL model
by monitoring client activities and leveraging available local computing
resources, particularly for resource-constrained IoT devices (e.g., mobile
robots), to accelerate the learning process. We assign a trust score to each FL
client, which is updated based on the client's activities. We consider a
distributed mobile robot as an FL client with resource limitations either in
memory, bandwidth, processor, or battery life. We consider such mobile robots
as FL clients to understand their resource-constrained behavior in a real-world
setting. We consider an FL client to be untrustworthy if the client infuses
incorrect models or repeatedly gives slow responses during the FL process.
After disregarding the ineffective and unreliable client, we perform local
training on the selected FL clients. To further reduce the straggler issue, we
enable an asynchronous FL mechanism by performing aggregation on the FL server
without waiting for a long period to receive a particular client's response.
- Abstract(参考訳): スマートフォン、自動運転車、IoT(Internet-of-Things)デバイスは、分散ネットワークの主要なデータソースと考えられている。
インターネットの可用性の急激なブレークスルーとIoTデバイスの継続的な改善により、すべてのローカル情報を集中型計算エージェントと共有するのではなく、データをローカルに保存してエッジで計算することが望ましい。
最近提案されたFederated Learning (FL)と呼ばれる機械学習(ML)アルゴリズムは、データプライバシの保護、分散学習の実行、大規模機械学習(ML)問題における通信オーバーヘッドの低減への道を開いた。
本稿では,クライアントのアクティビティを監視し,特に資源制約のあるIoTデバイス(モバイルロボットなど)で利用可能なローカルコンピューティングリソースを活用することにより,学習プロセスを高速化するFLモデルを提案する。
各FLクライアントに対して信頼スコアを割り当て、クライアントのアクティビティに基づいて更新する。
我々は,分散移動ロボットを,メモリ,帯域幅,プロセッサ,バッテリ寿命に制限のあるFLクライアントとみなす。
このような移動ロボットをFLクライアントとみなして,実環境における資源制約された動作を理解する。
クライアントが不正なモデルを注入したり、FLプロセス中に繰り返し応答を遅くした場合、FLクライアントは信頼できないとみなす。
非効率で信頼性の低いクライアントを無視して、選択したflクライアントでローカルトレーニングを行います。
トラグラー問題をさらに軽減するため,FLサーバ上でのアグリゲーションを,特定のクライアントの応答を長時間待たずに行うことで,非同期FL機構を実現する。
関連論文リスト
- FLrce: Resource-Efficient Federated Learning with Early-Stopping Strategy [7.963276533979389]
フェデレートラーニング(FL)がIoT(Internet of Things)で大人気
FLrceは、関係ベースのクライアント選択と早期停止戦略を備えた効率的なFLフレームワークである。
その結果,既存のFLフレームワークと比較してFLrceは計算効率を少なくとも30%,通信効率を43%向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-15T10:13:44Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - DynamicFL: Balancing Communication Dynamics and Client Manipulation for
Federated Learning [6.9138560535971605]
Federated Learning(FL)は、数百万のエッジデバイスにわたる分散データを活用することで、グローバルモデルをトレーニングすることを目的としている。
地理的に分散したエッジデバイスと非常にダイナミックなネットワークが混在していることを考えると、参加するデバイスからすべてのモデル更新を集約すると、FLでは必然的な長期遅延が発生する。
本稿では,クライアント操作戦略を特別に設計した大規模エッジデバイスにおける通信力学とデータ品質を考慮した新しいFLフレームワークであるDynamicFLを提案する。
論文 参考訳(メタデータ) (2023-07-16T19:09:31Z) - FLEdge: Benchmarking Federated Machine Learning Applications in Edge Computing Systems [61.335229621081346]
フェデレートラーニング(FL)は,ネットワークエッジ上での分散ディープラーニングのプライバシ強化を実現する上で,有効なテクニックとなっている。
本稿では,既存のFLベンチマークを補完するFLEdgeを提案する。
論文 参考訳(メタデータ) (2023-06-08T13:11:20Z) - Joint Age-based Client Selection and Resource Allocation for
Communication-Efficient Federated Learning over NOMA Networks [8.030674576024952]
FL(Federated Learning)では、分散クライアントは、自身のトレーニングデータをローカルに保持しながら、共有グローバルモデルを共同でトレーニングすることができる。
本稿では,非直交多重アクセス(NOMA)を利用した無線ネットワーク上でのFLにおける各ラウンドの総時間消費を最小化することを目的とした,クライアント選択とリソース割り当ての協調最適化問題を定式化する。
さらに、各ラウンドで選択されていないクライアントのFLモデルを予測し、FL性能をさらに向上するために、サーバサイド人工知能ニューラルネットワーク(ANN)を提案する。
論文 参考訳(メタデータ) (2023-04-18T13:58:16Z) - FedLE: Federated Learning Client Selection with Lifespan Extension for
Edge IoT Networks [34.63384007690422]
Federated Learning(FL)は、IoT(Internet of Things)デバイスによってエッジで生成された巨大なデータによる予測モデリングのための分散およびプライバシ保護学習フレームワークである。
IoTでFLが広く採用されるのを防ぐ大きな課題のひとつは、IoTデバイスの広範な電源制約だ。
我々はエッジIoTネットワークの拡張を可能にするエネルギー効率の高いクライアント選択フレームワークであるFedLEを提案する。
論文 参考訳(メタデータ) (2023-02-14T19:41:24Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Federated Learning with Cooperating Devices: A Consensus Approach for
Massive IoT Networks [8.456633924613456]
分散システムにおける機械学習モデルをトレーニングするための新しいパラダイムとして、フェデレートラーニング(FL)が登場している。
提案するFLアルゴリズムは,ネットワーク内のデータ操作を行うデバイスとの協調を利用して,完全に分散された(あるいはサーバレス)学習手法を提案する。
このアプローチは、分散接続とコンピューティングを特徴とするネットワークを超えて、5G 内で FL を統合するための基盤となる。
論文 参考訳(メタデータ) (2019-12-27T15:16:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。