論文の概要: Benchmarking Processor Performance by Multi-Threaded Machine Learning
Algorithms
- arxiv url: http://arxiv.org/abs/2109.05276v1
- Date: Sat, 11 Sep 2021 13:26:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-17 10:08:38.894272
- Title: Benchmarking Processor Performance by Multi-Threaded Machine Learning
Algorithms
- Title(参考訳): マルチスレッド機械学習アルゴリズムによるベンチマーク処理性能
- Authors: Muhammad Fahad Saleem
- Abstract要約: 本稿では,マルチスレッド機械学習クラスタリングアルゴリズムの性能比較を行う。
私は、アルゴリズムのパフォーマンス特性を決定するために、線形回帰、ランダムフォレスト、K-Nearest Neighborsに取り組んでいます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning algorithms have enabled computers to predict things by
learning from previous data. The data storage and processing power are
increasing rapidly, thus increasing machine learning and Artificial
intelligence applications. Much of the work is done to improve the accuracy of
the models built in the past, with little research done to determine the
computational costs of machine learning acquisitions. In this paper, I will
proceed with this later research work and will make a performance comparison of
multi-threaded machine learning clustering algorithms. I will be working on
Linear Regression, Random Forest, and K-Nearest Neighbors to determine the
performance characteristics of the algorithms as well as the computation costs
to the obtained results. I will be benchmarking system hardware performance by
running these multi-threaded algorithms to train and test the models on a
dataset to note the differences in performance matrices of the algorithms. In
the end, I will state the best performing algorithms concerning the performance
efficiency of these algorithms on my system.
- Abstract(参考訳): 機械学習アルゴリズムにより、コンピュータは以前のデータから学習することで物事を予測することができる。
データストレージと処理能力は急速に増加しており、機械学習と人工知能の応用が増加している。
過去に構築されたモデルの精度を向上させるために多くの研究が行われており、機械学習の買収の計算コストを決定する研究はほとんど行われていない。
本稿では、この後の研究を進め、マルチスレッド機械学習クラスタリングアルゴリズムの性能比較を行う。
私は、アルゴリズムの性能特性と、得られた結果に対する計算コストを決定するために、線形回帰、ランダムフォレスト、およびK-Nearest Neighborsに取り組んでいます。
マルチスレッドアルゴリズムを実行して、データセット上でモデルのトレーニングとテストを行い、アルゴリズムのパフォーマンスマトリックスの違いに注意することで、システムハードウェアのパフォーマンスをベンチマークします。
最終的に、これらのアルゴリズムの性能効率に関する最良のアルゴリズムを、私のシステム上で述べます。
関連論文リスト
- Learning-Augmented Algorithms with Explicit Predictors [67.02156211760415]
アルゴリズム設計の最近の進歩は、過去のデータと現在のデータから得られた機械学習モデルによる予測の活用方法を示している。
この文脈における以前の研究は、予測器が過去のデータに基づいて事前訓練され、ブラックボックスとして使用されるパラダイムに焦点を当てていた。
本研究では,予測器を解き,アルゴリズムの課題の中で生じる学習問題を統合する。
論文 参考訳(メタデータ) (2024-03-12T08:40:21Z) - Accelerating Machine Learning Algorithms with Adaptive Sampling [1.539582851341637]
しばしば、計算集約的なサブルーチンを、品質のほとんど劣化しない特別な種類のランダム化されたサブルーチンに置換するのに十分である。
この論文は、しばしば計算集約的なサブルーチンを、品質のほとんど劣化しない特別な種類のランダム化されたサブルーチンに置き換えるのが十分であることを示している。
論文 参考訳(メタデータ) (2023-09-25T15:25:59Z) - A Survey From Distributed Machine Learning to Distributed Deep Learning [0.356008609689971]
データとアルゴリズムを複数のマシンに分散する分散機械学習が提案されている。
これらのアルゴリズムを分類とクラスタリング(従来の機械学習)、深層学習、深層強化学習グループに分割する。
上記のアルゴリズムの調査に基づいて、今後の研究で対処すべき限界を強調した。
論文 参考訳(メタデータ) (2023-07-11T13:06:42Z) - Performance and Energy Consumption of Parallel Machine Learning
Algorithms [0.0]
機械学習モデルは、様々な現実世界のアプリケーションで顕著な成功を収めた。
機械学習のモデルトレーニングには、大規模データセットと複数のイテレーションが必要である。
トレーニングアルゴリズムの並列化は、トレーニングのプロセスを高速化するための一般的な戦略である。
論文 参考訳(メタデータ) (2023-05-01T13:04:39Z) - RMBench: Benchmarking Deep Reinforcement Learning for Robotic
Manipulator Control [47.61691569074207]
強化学習は、高次元の感覚入力から実際の複雑なタスクを解決するために応用される。
生の知覚信号表現における深層学習の最近の進歩
ロボット操作のための最初のベンチマークであるRMBenchを紹介する。
論文 参考訳(メタデータ) (2022-10-20T13:34:26Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - Evolving Reinforcement Learning Algorithms [186.62294652057062]
メタラーニング強化学習アルゴリズムの手法を提案する。
学習アルゴリズムはドメインに依存しないため、トレーニング中に見えない新しい環境に一般化することができる。
従来の制御タスク、gridworld型タスク、atariゲームよりも優れた一般化性能を得る2つの学習アルゴリズムに注目した。
論文 参考訳(メタデータ) (2021-01-08T18:55:07Z) - Towards Efficient and Scalable Acceleration of Online Decision Tree
Learning on FPGA [20.487660974785943]
ビッグデータの時代において、従来の決定木誘導アルゴリズムは大規模なデータセットを学習するのに適していない。
本稿では,現在最先端のオンライン学習モデルの1つであるHoeffdingツリーの帰納化を改善するために,新しいQuantileベースのアルゴリズムを提案する。
フィールドプログラミング可能なゲートアレイ上に,高性能,ハードウェア効率,スケーラブルなオンライン決定木学習システムを提案する。
論文 参考訳(メタデータ) (2020-09-03T03:23:43Z) - Strong Generalization and Efficiency in Neural Programs [69.18742158883869]
本稿では,ニューラルプログラム誘導の枠組みを強く一般化する効率的なアルゴリズムを学習する問題について検討する。
ニューラルネットワークの入力/出力インターフェースを慎重に設計し、模倣することで、任意の入力サイズに対して正しい結果を生成するモデルを学ぶことができる。
論文 参考訳(メタデータ) (2020-07-07T17:03:02Z) - Kernel methods through the roof: handling billions of points efficiently [94.31450736250918]
カーネル法は、非パラメトリック学習に対するエレガントで原則化されたアプローチを提供するが、今のところ大規模な問題ではほとんど利用できない。
最近の進歩は、最適化、数値線形代数、ランダム射影など、多くのアルゴリズム的アイデアの利点を示している。
ここでは、これらの取り組みをさらに進めて、GPUハードウェアを最大限に活用する解決器を開発し、テストする。
論文 参考訳(メタデータ) (2020-06-18T08:16:25Z) - Guidelines for enhancing data locality in selected machine learning
algorithms [0.0]
データ局所性を利用した機械学習アルゴリズムの性能向上手法の1つを分析する。
繰り返しのデータアクセスは、データ移動における冗長性と見なすことができる。
この研究は、結果を直接再利用することによって、これらの冗長性を避けるためのいくつかの機会を特定する。
論文 参考訳(メタデータ) (2020-01-09T14:16:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。