論文の概要: A Survey From Distributed Machine Learning to Distributed Deep Learning
- arxiv url: http://arxiv.org/abs/2307.05232v1
- Date: Tue, 11 Jul 2023 13:06:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-12 15:06:51.187579
- Title: A Survey From Distributed Machine Learning to Distributed Deep Learning
- Title(参考訳): 分散機械学習から分散ディープラーニングへの調査
- Authors: Mohammad Dehghani, Zahra Yazdanparast
- Abstract要約: 本稿では、これらのアルゴリズムのレビューを通じて、この分野における現在の最先端技術の概要を概説する。
このアルゴリズムを分類とクラスタリング(従来の機械学習)、深層学習、深層強化学習グループに分割する。
アルゴリズムの調査に基づいて、今後の研究で対処すべき制限を強調します。
- 参考スコア(独自算出の注目度): 0.6230150669574491
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Artificial intelligence has achieved significant success in handling complex
tasks in recent years. This success is due to advances in machine learning
algorithms and hardware acceleration. In order to obtain more accurate results
and solve more complex problems, algorithms must be trained with more data.
This huge amount of data could be time-consuming to process and require a great
deal of computation. This solution could be achieved by distributing the data
and algorithm across several machines, which is known as distributed machine
learning. There has been considerable effort put into distributed machine
learning algorithms, and different methods have been proposed so far. In this
article, we present a comprehensive summary of the current state-of-the-art in
the field through the review of these algorithms. We divide this algorithms in
classification and clustering (traditional machine learning), deep learning and
deep reinforcement learning groups. Distributed deep learning has gained more
attention in recent years and most of studies worked on this algorithms. As a
result, most of the articles we discussed here belong to this category. Based
on our investigation of algorithms, we highlight limitations that should be
addressed in future research.
- Abstract(参考訳): 近年、人工知能は複雑なタスクの処理で大きな成功を収めている。
この成功は、機械学習アルゴリズムとハードウェアアクセラレーションの進歩によるものだ。
より正確な結果を取得し、より複雑な問題を解決するためには、より多くのデータでアルゴリズムを訓練する必要がある。
この膨大なデータが処理に時間がかかり、大量の計算を必要とする可能性がある。
このソリューションは、分散機械学習として知られる複数のマシンにデータとアルゴリズムを分散させることで実現できる。
分散機械学習アルゴリズムにはかなりの労力が費やされており、これまで様々な方法が提案されてきた。
本稿では,これらのアルゴリズムのレビューを通じて,この分野の最先端技術の概要について概説する。
このアルゴリズムを分類とクラスタリング(従来の機械学習)、深層学習、深層強化学習グループに分割する。
近年、分散ディープラーニングが注目され、ほとんどの研究がこのアルゴリズムに取り組んできた。
その結果、本稿で論じる記事の大部分は、このカテゴリに属している。
アルゴリズムの調査に基づいて、今後の研究で対処すべき制限を強調します。
関連論文リスト
- From Decoding to Meta-Generation: Inference-time Algorithms for Large Language Models [63.188607839223046]
この調査は、推論中に計算をスケールするメリットに焦点を当てている。
我々はトークンレベルの生成アルゴリズム、メタジェネレーションアルゴリズム、効率的な生成という3つの領域を統一的な数学的定式化の下で探索する。
論文 参考訳(メタデータ) (2024-06-24T17:45:59Z) - Machine Learning Augmented Branch and Bound for Mixed Integer Linear
Programming [11.293025183996832]
Mixed Linear Programming (MILP)は、幅広いアプリケーションに対して強力なモデリング言語を提供する。
近年,ブランチ・アンド・バウンドアルゴリズムに関わる主要なタスクをすべて強化するための機械学習アルゴリズムの利用が爆発的な発展を遂げている。
特に、分岐とバウンドの効率の指標を自動的に最適化する機械学習アルゴリズムに注意を払っている。
論文 参考訳(メタデータ) (2024-02-08T09:19:26Z) - Accelerating Machine Learning Algorithms with Adaptive Sampling [1.539582851341637]
しばしば、計算集約的なサブルーチンを、品質のほとんど劣化しない特別な種類のランダム化されたサブルーチンに置換するのに十分である。
この論文は、しばしば計算集約的なサブルーチンを、品質のほとんど劣化しない特別な種類のランダム化されたサブルーチンに置き換えるのが十分であることを示している。
論文 参考訳(メタデータ) (2023-09-25T15:25:59Z) - MLGWSC-1: The first Machine Learning Gravitational-Wave Search Mock Data
Challenge [110.7678032481059]
第1回機械学習重力波探索モックデータチャレンジ(MLGWSC-1)の結果を示す。
この課題のために、参加するグループは、より現実的な雑音に埋め込まれた複雑さと持続期間が増大する二元ブラックホールの融合から重力波信号を特定する必要があった。
この結果から,現在の機械学習検索アルゴリズムは,限られたパラメータ領域においてすでに十分敏感である可能性が示唆された。
論文 参考訳(メタデータ) (2022-09-22T16:44:59Z) - Research Trends and Applications of Data Augmentation Algorithms [77.34726150561087]
我々は,データ拡張アルゴリズムの適用分野,使用するアルゴリズムの種類,重要な研究動向,時間経過に伴う研究の進展,およびデータ拡張文学における研究ギャップを同定する。
我々は、読者がデータ拡張の可能性を理解し、将来の研究方向を特定し、データ拡張研究の中で質問を開くことを期待する。
論文 参考訳(メタデータ) (2022-07-18T11:38:32Z) - Benchmarking Processor Performance by Multi-Threaded Machine Learning
Algorithms [0.0]
本稿では,マルチスレッド機械学習クラスタリングアルゴリズムの性能比較を行う。
私は、アルゴリズムのパフォーマンス特性を決定するために、線形回帰、ランダムフォレスト、K-Nearest Neighborsに取り組んでいます。
論文 参考訳(メタデータ) (2021-09-11T13:26:58Z) - Launchpad: A Programming Model for Distributed Machine Learning Research [12.618286123360233]
分散システムの定義と起動のプロセスを簡単にするプログラミングモデルであるLaunchpadを紹介します。
提案するフレームワーク,設計哲学,実装について述べるとともに,このアプローチによって設計が大幅に単純化された共通学習アルゴリズムの例を多数紹介する。
論文 参考訳(メタデータ) (2021-06-07T17:02:10Z) - Ten Quick Tips for Deep Learning in Biology [116.78436313026478]
機械学習は、データのパターンを認識し、予測モデリングに使用するアルゴリズムの開発と応用に関係している。
ディープラーニングは、独自の機械学習のサブフィールドになっている。
生物学的研究の文脈において、ディープラーニングは高次元の生物学的データから新しい洞察を導き出すためにますます使われてきた。
論文 参考訳(メタデータ) (2021-05-29T21:02:44Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z) - AutoML-Zero: Evolving Machine Learning Algorithms From Scratch [76.83052807776276]
基本数学的操作をビルディングブロックとして使うだけで,完全な機械学習アルゴリズムを自動的に発見できることが示される。
汎用的な検索空間を通じて人間のバイアスを大幅に低減する新しいフレームワークを導入することでこれを実証する。
機械学習アルゴリズムをゼロから発見する上で、これらの予備的な成功は、この分野における有望な新しい方向性を示していると信じている。
論文 参考訳(メタデータ) (2020-03-06T19:00:04Z) - Guidelines for enhancing data locality in selected machine learning
algorithms [0.0]
データ局所性を利用した機械学習アルゴリズムの性能向上手法の1つを分析する。
繰り返しのデータアクセスは、データ移動における冗長性と見なすことができる。
この研究は、結果を直接再利用することによって、これらの冗長性を避けるためのいくつかの機会を特定する。
論文 参考訳(メタデータ) (2020-01-09T14:16:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。