論文の概要: Launchpad: A Programming Model for Distributed Machine Learning Research
- arxiv url: http://arxiv.org/abs/2106.04516v1
- Date: Mon, 7 Jun 2021 17:02:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-10 15:19:17.165872
- Title: Launchpad: A Programming Model for Distributed Machine Learning Research
- Title(参考訳): Launchpad: 分散機械学習研究のためのプログラミングモデル
- Authors: Fan Yang, Gabriel Barth-Maron, Piotr Sta\'nczyk, Matthew Hoffman, Siqi
Liu, Manuel Kroiss, Aedan Pope, Alban Rrustemi
- Abstract要約: 分散システムの定義と起動のプロセスを簡単にするプログラミングモデルであるLaunchpadを紹介します。
提案するフレームワーク,設計哲学,実装について述べるとともに,このアプローチによって設計が大幅に単純化された共通学習アルゴリズムの例を多数紹介する。
- 参考スコア(独自算出の注目度): 12.618286123360233
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A major driver behind the success of modern machine learning algorithms has
been their ability to process ever-larger amounts of data. As a result, the use
of distributed systems in both research and production has become increasingly
prevalent as a means to scale to this growing data. At the same time, however,
distributing the learning process can drastically complicate the implementation
of even simple algorithms. This is especially problematic as many machine
learning practitioners are not well-versed in the design of distributed
systems, let alone those that have complicated communication topologies. In
this work we introduce Launchpad, a programming model that simplifies the
process of defining and launching distributed systems that is specifically
tailored towards a machine learning audience. We describe our framework, its
design philosophy and implementation, and give a number of examples of common
learning algorithms whose designs are greatly simplified by this approach.
- Abstract(参考訳): 現代の機械学習アルゴリズムの成功の背後にある主要な要因は、ずっと大きなデータを処理する能力である。
その結果、この成長するデータへのスケール手段として、研究と生産の両方における分散システムの利用がますます普及している。
しかし同時に、学習プロセスの分散は、単純なアルゴリズムの実装を劇的に複雑にする可能性がある。
これは特に問題であり、多くの機械学習実践者は複雑なコミュニケーショントポロジを持つものを除いて、分散システムの設計に精通していない。
この作業では、マシンラーニングのオーディエンス向けに特別に調整された分散システムを定義し、ローンチするプロセスを簡単にするプログラミングモデルであるlaunchpadを紹介します。
提案するフレームワーク,設計哲学,実装について述べるとともに,このアプローチによって設計が大幅に単純化された共通学習アルゴリズムの例を多数紹介する。
関連論文リスト
- Application-Driven Innovation in Machine Learning [56.85396167616353]
機械学習におけるアプリケーション駆動研究のパラダイムについて述べる。
このアプローチがメソッド駆動の作業と生産的に相乗効果を示す。
このようなメリットにもかかわらず、マシンラーニングにおけるレビュー、採用、教育のプラクティスが、アプリケーション主導のイノベーションを後押しすることが多いことに気付きます。
論文 参考訳(メタデータ) (2024-03-26T04:59:27Z) - A Survey From Distributed Machine Learning to Distributed Deep Learning [0.356008609689971]
データとアルゴリズムを複数のマシンに分散する分散機械学習が提案されている。
これらのアルゴリズムを分類とクラスタリング(従来の機械学習)、深層学習、深層強化学習グループに分割する。
上記のアルゴリズムの調査に基づいて、今後の研究で対処すべき限界を強調した。
論文 参考訳(メタデータ) (2023-07-11T13:06:42Z) - Automating In-Network Machine Learning [2.857025628729502]
Planterは、トレーニングされた機械学習モデルをプログラム可能なデバイスにマッピングするためのオープンソースのフレームワークである。
ネットワーク内機械学習アルゴリズムは,回線レートで動作し,レイテンシへの影響を無視し,標準スイッチング機能と共存し,精度のトレードオフがないことを示す。
論文 参考訳(メタデータ) (2022-05-18T09:42:22Z) - Flashlight: Enabling Innovation in Tools for Machine Learning [50.63188263773778]
私たちは、機械学習ツールやシステムの革新を促進するために構築されたオープンソースのライブラリであるFlashlightを紹介します。
Flashlightは、広く使われているライブラリを下流で活用し、機械学習とシステム研究者をより緊密に連携させる研究を可能にするツールだと考えています。
論文 参考訳(メタデータ) (2022-01-29T01:03:29Z) - Continual Learning for Real-World Autonomous Systems: Algorithms,
Challenges and Frameworks [15.276951055528237]
我々は、時間とともに計算モデルの継続的な学習を可能にする最先端の手法についてレビューする。
我々は、かなり大きな(あるいは無限の)シーケンシャルデータからオンライン形式で継続的学習を行う学習アルゴリズムに焦点を当てる。
我々は、自律現実システムにおける継続的学習に関連する重要な課題を批判的に分析する。
論文 参考訳(メタデータ) (2021-05-26T07:38:20Z) - SELM: Software Engineering of Machine Learning Models [0.19116784879310023]
本稿では,機械学習モデルのソフトウェア工学のためのSELMフレームワークについて述べる。
SELMフレームワークを使うことで、機械学習プロセスの効率を改善し、学習の精度を高めることができる。
この問題は、機械学習に対する学際的アプローチの重要性を強調している。
論文 参考訳(メタデータ) (2021-03-20T21:43:24Z) - Technology Readiness Levels for Machine Learning Systems [107.56979560568232]
機械学習システムの開発とデプロイは、現代のツールで簡単に実行できますが、プロセスは一般的に急ぎ、エンドツーエンドです。
私たちは、機械学習の開発と展開のための実証済みのシステムエンジニアリングアプローチを開発しました。
当社の「機械学習技術準備レベル」フレームワークは、堅牢で信頼性が高く、責任あるシステムを確保するための原則的なプロセスを定義します。
論文 参考訳(メタデータ) (2021-01-11T15:54:48Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - Self-organizing Democratized Learning: Towards Large-scale Distributed
Learning Systems [71.14339738190202]
民主化された学習(Dem-AI)は、大規模な分散および民主化された機械学習システムを構築するための基本原則を備えた全体主義的哲学を定めている。
本稿では,Dem-AI哲学にヒントを得た分散学習手法を提案する。
提案アルゴリズムは,従来のFLアルゴリズムと比較して,エージェントにおける学習モデルの一般化性能が向上することを示す。
論文 参考訳(メタデータ) (2020-07-07T08:34:48Z) - AutoML-Zero: Evolving Machine Learning Algorithms From Scratch [76.83052807776276]
基本数学的操作をビルディングブロックとして使うだけで,完全な機械学習アルゴリズムを自動的に発見できることが示される。
汎用的な検索空間を通じて人間のバイアスを大幅に低減する新しいフレームワークを導入することでこれを実証する。
機械学習アルゴリズムをゼロから発見する上で、これらの予備的な成功は、この分野における有望な新しい方向性を示していると信じている。
論文 参考訳(メタデータ) (2020-03-06T19:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。