論文の概要: Fiber: A Platform for Efficient Development and Distributed Training for
Reinforcement Learning and Population-Based Methods
- arxiv url: http://arxiv.org/abs/2003.11164v1
- Date: Wed, 25 Mar 2020 00:28:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 02:38:00.359062
- Title: Fiber: A Platform for Efficient Development and Distributed Training for
Reinforcement Learning and Population-Based Methods
- Title(参考訳): Fiber: 強化学習と人口ベース手法のための効率的な開発と分散トレーニングのためのプラットフォーム
- Authors: Jiale Zhi, Rui Wang, Jeff Clune, Kenneth O. Stanley
- Abstract要約: 強化学習(RL)と人口ベースの手法は、基盤となる分散コンピューティングフレームワークに対して、効率と柔軟性に固有の課題をもたらす。
我々は、RLおよび人口ベース手法のためのスケーラブルな分散コンピューティングフレームワークFiberを紹介する。
- 参考スコア(独自算出の注目度): 15.263746839710715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in machine learning are consistently enabled by increasing
amounts of computation. Reinforcement learning (RL) and population-based
methods in particular pose unique challenges for efficiency and flexibility to
the underlying distributed computing frameworks. These challenges include
frequent interaction with simulations, the need for dynamic scaling, and the
need for a user interface with low adoption cost and consistency across
different backends. In this paper we address these challenges while still
retaining development efficiency and flexibility for both research and
practical applications by introducing Fiber, a scalable distributed computing
framework for RL and population-based methods. Fiber aims to significantly
expand the accessibility of large-scale parallel computation to users of
otherwise complicated RL and population-based approaches without the need to
for specialized computational expertise.
- Abstract(参考訳): 機械学習の最近の進歩は、計算量の増加によって一貫して実現されている。
特に強化学習(rl)と人口ベースの手法は、基盤となる分散コンピューティングフレームワークの効率性と柔軟性に特有の課題をもたらす。
これらの課題には、シミュレーションとの頻繁なインタラクション、動的スケーリングの必要性、導入コストが低いユーザインターフェースの必要性、異なるバックエンド間の一貫性などが含まれる。
本稿では、RLおよび人口ベース手法のためのスケーラブルな分散コンピューティングフレームワークであるFiberを導入することにより、研究用および実用用両方の開発効率と柔軟性を維持しながら、これらの課題に対処する。
Fiberは大規模並列計算のアクセシビリティを、専門的な計算専門知識を必要とせずに、より複雑なRLや集団ベースのアプローチのユーザに拡大することを目的としている。
関連論文リスト
- eFedLLM: Efficient LLM Inference Based on Federated Learning [1.6179784294541053]
大言語モデル(LLMs)は人工知能(AI)の転換期を告げる
本稿では, LLM推論の運用効率と費用対効果を高める効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-11-24T22:50:02Z) - Acceleration for Deep Reinforcement Learning using Parallel and Distributed Computing: A Survey [29.275928499337734]
深層強化学習は、人工知能の分野で劇的なブレークスルーをもたらした。
深層強化学習のためのロールアウト経験データとニューラルネットワークのサイズが増大するにつれて、トレーニングプロセスの処理と並列分散コンピューティングによる時間消費の削減が、緊急かつ必須の願望となっている。
我々は,並列・分散コンピューティングに基づく深層強化学習のための訓練促進手法について,広範かつ徹底的な研究を行う。
論文 参考訳(メタデータ) (2024-11-08T14:55:32Z) - CollaFuse: Collaborative Diffusion Models [5.331052581441263]
分割学習に触発された分散協調拡散モデルに対する新しいアプローチを提案する。
本手法は,画像合成におけるクライアントの計算負担を軽減するとともに,拡散モデルの協調学習を容易にする。
論文 参考訳(メタデータ) (2024-06-20T15:54:21Z) - PeersimGym: An Environment for Solving the Task Offloading Problem with Reinforcement Learning [2.0249250133493195]
計算ネットワークにおけるタスクオフロード戦略の開発と最適化に適した,オープンソースのカスタマイズ可能なシミュレーション環境であるPeersimGymを紹介する。
PeersimGymは、幅広いネットワークトポロジと計算制約をサポートし、TextitPettingZooベースのインターフェイスを統合して、RLエージェントのデプロイを、単体とマルチエージェントの両方で行えるようにしている。
本稿では,分散コンピューティング環境におけるオフロード戦略を大幅に強化するRLベースのアプローチの可能性を示す。
論文 参考訳(メタデータ) (2024-03-26T12:12:44Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Distributionally Robust Model-based Reinforcement Learning with Large
State Spaces [55.14361269378122]
強化学習における3つの大きな課題は、大きな状態空間を持つ複雑な力学系、コストのかかるデータ取得プロセス、トレーニング環境の展開から現実の力学を逸脱させることである。
広範に用いられているKullback-Leibler, chi-square, および全変分不確実性集合の下で, 連続状態空間を持つ分布ロバストなマルコフ決定過程について検討した。
本稿では,ガウス過程と最大分散削減アルゴリズムを用いて,多出力名目遷移力学を効率的に学習するモデルベースアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-05T13:42:11Z) - On Efficient Training of Large-Scale Deep Learning Models: A Literature
Review [90.87691246153612]
ディープラーニングの分野は特にコンピュータビジョン(CV)、自然言語処理(NLP)、音声などにおいて大きな進歩を遂げている。
大量のデータに基づいてトレーニングされた大規模なモデルを使用することは、実用的なアプリケーションにとって大きな可能性を秘めている。
計算能力の需要が増大する中で、ディープラーニングモデルの訓練の加速技術に関する包括的な要約が期待されている。
論文 参考訳(メタデータ) (2023-04-07T11:13:23Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Privacy-Preserving Serverless Edge Learning with Decentralized Small
Data [13.254530176359182]
最近、分散トレーニング戦略は、ディープモデルをトレーニングする際のデータプライバシを保証するための有望なアプローチになっている。
本稿では、従来のサーバレスプラットフォームをサーバレスエッジ学習アーキテクチャで拡張し、ネットワークの観点から効率的な分散トレーニングフレームワークを提供する。
論文 参考訳(メタデータ) (2021-11-29T21:04:49Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - Adaptive Serverless Learning [114.36410688552579]
本研究では,データから学習率を動的に計算できる適応型分散学習手法を提案する。
提案アルゴリズムは, 作業者数に対して線形高速化が可能であることを示す。
通信効率のオーバーヘッドを低減するため,通信効率のよい分散訓練手法を提案する。
論文 参考訳(メタデータ) (2020-08-24T13:23:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。