論文の概要: FedMABench: Benchmarking Mobile Agents on Decentralized Heterogeneous User Data
- arxiv url: http://arxiv.org/abs/2503.05143v1
- Date: Fri, 07 Mar 2025 04:52:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:23:44.670718
- Title: FedMABench: Benchmarking Mobile Agents on Decentralized Heterogeneous User Data
- Title(参考訳): FedMABench: 分散化された異種ユーザデータに基づくモバイルエージェントのベンチマーク
- Authors: Wenhao Wang, Zijie Yu, Rui Ye, Jianqing Zhang, Siheng Chen, Yanfeng Wang,
- Abstract要約: FedMABenchは、モバイルエージェントのフェデレーショントレーニングと評価のための最初のベンチマークである。
FedMABenchには、30以上のサブセットを持つ6つのデータセット、8つのフェデレーションアルゴリズム、10以上のベースモデル、5つのカテゴリに800以上のアプリがある。
- 参考スコア(独自算出の注目度): 48.68048032554095
- License:
- Abstract: Mobile agents have attracted tremendous research participation recently. Traditional approaches to mobile agent training rely on centralized data collection, leading to high cost and limited scalability. Distributed training utilizing federated learning offers an alternative by harnessing real-world user data, providing scalability and reducing costs. However, pivotal challenges, including the absence of standardized benchmarks, hinder progress in this field. To tackle the challenges, we introduce FedMABench, the first benchmark for federated training and evaluation of mobile agents, specifically designed for heterogeneous scenarios. FedMABench features 6 datasets with 30+ subsets, 8 federated algorithms, 10+ base models, and over 800 apps across 5 categories, providing a comprehensive framework for evaluating mobile agents across diverse environments. Through extensive experiments, we uncover several key insights: federated algorithms consistently outperform local training; the distribution of specific apps plays a crucial role in heterogeneity; and, even apps from distinct categories can exhibit correlations during training. FedMABench is publicly available at: https://github.com/wwh0411/FedMABench with the datasets at: https://huggingface.co/datasets/wwh0411/FedMABench.
- Abstract(参考訳): モバイルエージェントは最近、膨大な研究参加を集めている。
モバイルエージェントのトレーニングに対する従来のアプローチは、中央集権的なデータ収集に依存しており、高いコストと限られたスケーラビリティをもたらす。
フェデレーション学習を利用した分散トレーニングは、現実のユーザデータを活用し、スケーラビリティとコスト削減を提供する、という代替手段を提供する。
しかし、標準ベンチマークの欠如を含む重要な課題は、この分野の進歩を妨げる。
この課題に対処するために,我々は,フェデレートトレーニングとモバイルエージェント評価のための最初のベンチマークであるFedMABenchを紹介した。
FedMABenchには、30以上のサブセットを持つ6つのデータセット、8つのフェデレーションアルゴリズム、10以上のベースモデル、および5つのカテゴリにわたる800以上のアプリが含まれており、さまざまな環境にわたるモバイルエージェントを評価するための包括的なフレームワークを提供する。
フェデレーションされたアルゴリズムは、局所的なトレーニングを一貫して上回り、特定のアプリの分布は異種性において重要な役割を担い、異なるカテゴリのアプリでさえ、トレーニング中に相関を示すことができる。
FedMABench は https://github.com/wwh0411/FedMABench で公開されており、データセットは https://huggingface.co/datasets/wwh0411/FedMABench で公開されている。
関連論文リスト
- Federated brain tumor segmentation: an extensive benchmark [2.515027627030043]
本稿では,この課題における3つのクラスすべてからのフェデレーション学習アルゴリズムの広範なベンチマークを提案する。
各カテゴリのいくつかの手法は、若干の性能改善をもたらし、フェデレーションの圧倒的なデータ分布に対する最終モデル(s)バイアスを制限する可能性があることを示す。
論文 参考訳(メタデータ) (2024-10-07T09:32:19Z) - FedLLM-Bench: Realistic Benchmarks for Federated Learning of Large Language Models [48.484485609995986]
フェデレートラーニングにより、複数のパーティがデータを直接共有することなく、協力的に大きな言語モデルをトレーニングできるようになった(FedLLM)。
現在、FedLLMの現実的なデータセットやベンチマークは存在しない。
我々は,8つのトレーニング手法,4つのトレーニングデータセット,6つの評価指標を含むFedLLM-Benchを提案する。
論文 参考訳(メタデータ) (2024-06-07T11:19:30Z) - Fed-MIWAE: Federated Imputation of Incomplete Data via Deep Generative
Models [5.373862368597948]
フェデレーション学習は、明示的なデータ交換を必要とせずに、複数のローカルデータセット上で機械学習モデルのトレーニングを可能にする。
欠落したデータを扱う戦略を含むデータ前処理は、現実世界のフェデレートされた学習デプロイメントにおいて、依然として大きなボトルネックとなっている。
本稿では,変分オートエンコーダをベースとした遅延変数モデルであるFed-MIWAEを提案する。
論文 参考訳(メタデータ) (2023-04-17T08:14:08Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - FedHiSyn: A Hierarchical Synchronous Federated Learning Framework for
Resource and Data Heterogeneity [56.82825745165945]
フェデレートラーニング(FL)は、データプライバシを保護するために複数のデバイスに格納された分散生データを共有することなく、グローバルモデルのトレーニングを可能にする。
本稿では,階層型同期FLフレームワークであるFedHiSynを提案し,トラグラー効果や時代遅れモデルの問題に対処する。
提案手法は,MNIST,EMNIST,CIFAR10,CIFAR100のデータセットと多種多様なデバイス設定に基づいて評価する。
論文 参考訳(メタデータ) (2022-06-21T17:23:06Z) - Heterogeneous Federated Learning via Grouped Sequential-to-Parallel
Training [60.892342868936865]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーション機械学習パラダイムである。
本稿では,この課題に対処するため,データヘテロジニアス・ロバストFLアプローチであるFedGSPを提案する。
その結果,FedGSPは7つの最先端アプローチと比較して平均3.7%の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-01-31T03:15:28Z) - FedMix: Approximation of Mixup under Mean Augmented Federated Learning [60.503258658382]
フェデレートラーニング(FL)は、エッジデバイスが各デバイス内でデータを直接共有することなく、モデルを集合的に学習することを可能にする。
現在の最先端アルゴリズムは、クライアント間のローカルデータの均一性が増大するにつれて性能劣化に悩まされる。
我々はFedMixという名の新しい拡張アルゴリズムを提案し、これは驚くべきが単純なデータ拡張手法であるMixupにインスパイアされている。
論文 参考訳(メタデータ) (2021-07-01T06:14:51Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。