論文の概要: Guidelines for enhancing data locality in selected machine learning
algorithms
- arxiv url: http://arxiv.org/abs/2001.03000v1
- Date: Thu, 9 Jan 2020 14:16:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 04:20:20.021520
- Title: Guidelines for enhancing data locality in selected machine learning
algorithms
- Title(参考訳): 選択した機械学習アルゴリズムにおけるデータの局所性向上のためのガイドライン
- Authors: Imen Chakroun and Tom Vander Aa and Thomas J. Ashby
- Abstract要約: データ局所性を利用した機械学習アルゴリズムの性能向上手法の1つを分析する。
繰り返しのデータアクセスは、データ移動における冗長性と見なすことができる。
この研究は、結果を直接再利用することによって、これらの冗長性を避けるためのいくつかの機会を特定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To deal with the complexity of the new bigger and more complex generation of
data, machine learning (ML) techniques are probably the first and foremost
used. For ML algorithms to produce results in a reasonable amount of time, they
need to be implemented efficiently. In this paper, we analyze one of the means
to increase the performances of machine learning algorithms which is exploiting
data locality. Data locality and access patterns are often at the heart of
performance issues in computing systems due to the use of certain hardware
techniques to improve performance. Altering the access patterns to increase
locality can dramatically increase performance of a given algorithm. Besides,
repeated data access can be seen as redundancy in data movement. Similarly,
there can also be redundancy in the repetition of calculations. This work also
identifies some of the opportunities for avoiding these redundancies by
directly reusing computation results. We start by motivating why and how a more
efficient implementation can be achieved by exploiting reuse in the memory
hierarchy of modern instruction set processors. Next we document the
possibilities of such reuse in some selected machine learning algorithms.
- Abstract(参考訳): 新たな大規模で複雑なデータ生成の複雑さに対処するために、マシンラーニング(ML)技術はおそらく最初に、最も多く使用されるものだ。
mlアルゴリズムが適切な時間内に結果を生成するためには、効率的に実装する必要がある。
本稿では,データ局所性を利用した機械学習アルゴリズムの性能向上手法の1つを分析する。
データローカリティとアクセスパターンは、パフォーマンスを改善するために特定のハードウェア技術を使用するため、コンピューティングシステムにおけるパフォーマンス問題の中心となることが多い。
局所性を高めるためにアクセスパターンを変更することは、与えられたアルゴリズムの性能を劇的に向上させる。
また、繰り返しデータアクセスは、データ移動における冗長性と見なすことができる。
同様に、計算の繰り返しにも冗長性がある。
この研究は、計算結果を直接再利用することでこれらの冗長性を避けるためのいくつかの機会を特定する。
まず、現代の命令セットプロセッサのメモリ階層の再利用を利用して、より効率的な実装を実現するための動機付けから始める。
次に、選択した機械学習アルゴリズムでそのような再利用の可能性について述べる。
関連論文リスト
- From Decoding to Meta-Generation: Inference-time Algorithms for Large Language Models [63.188607839223046]
この調査は、推論中に計算をスケールするメリットに焦点を当てている。
我々はトークンレベルの生成アルゴリズム、メタジェネレーションアルゴリズム、効率的な生成という3つの領域を統一的な数学的定式化の下で探索する。
論文 参考訳(メタデータ) (2024-06-24T17:45:59Z) - Accelerating Machine Learning Algorithms with Adaptive Sampling [1.539582851341637]
しばしば、計算集約的なサブルーチンを、品質のほとんど劣化しない特別な種類のランダム化されたサブルーチンに置換するのに十分である。
この論文は、しばしば計算集約的なサブルーチンを、品質のほとんど劣化しない特別な種類のランダム化されたサブルーチンに置き換えるのが十分であることを示している。
論文 参考訳(メタデータ) (2023-09-25T15:25:59Z) - A Survey From Distributed Machine Learning to Distributed Deep Learning [0.356008609689971]
データとアルゴリズムを複数のマシンに分散する分散機械学習が提案されている。
これらのアルゴリズムを分類とクラスタリング(従来の機械学習)、深層学習、深層強化学習グループに分割する。
上記のアルゴリズムの調査に基づいて、今後の研究で対処すべき限界を強調した。
論文 参考訳(メタデータ) (2023-07-11T13:06:42Z) - Performance and Energy Consumption of Parallel Machine Learning
Algorithms [0.0]
機械学習モデルは、様々な現実世界のアプリケーションで顕著な成功を収めた。
機械学習のモデルトレーニングには、大規模データセットと複数のイテレーションが必要である。
トレーニングアルゴリズムの並列化は、トレーニングのプロセスを高速化するための一般的な戦略である。
論文 参考訳(メタデータ) (2023-05-01T13:04:39Z) - Benchmarking Processor Performance by Multi-Threaded Machine Learning
Algorithms [0.0]
本稿では,マルチスレッド機械学習クラスタリングアルゴリズムの性能比較を行う。
私は、アルゴリズムのパフォーマンス特性を決定するために、線形回帰、ランダムフォレスト、K-Nearest Neighborsに取り組んでいます。
論文 参考訳(メタデータ) (2021-09-11T13:26:58Z) - Providing Meaningful Data Summarizations Using Examplar-based Clustering
in Industry 4.0 [67.80123919697971]
我々は,従来のCPUアルゴリズムと比較して,一精度で最大72倍,半精度で最大452倍の高速化を実現していることを示す。
提案アルゴリズムは射出成形プロセスから得られた実世界のデータに適用し, 得られたサマリーが, コスト削減と不良部品製造の削減のために, この特定のプロセスのステアリングにどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2021-05-25T15:55:14Z) - Evolving Reinforcement Learning Algorithms [186.62294652057062]
メタラーニング強化学習アルゴリズムの手法を提案する。
学習アルゴリズムはドメインに依存しないため、トレーニング中に見えない新しい環境に一般化することができる。
従来の制御タスク、gridworld型タスク、atariゲームよりも優れた一般化性能を得る2つの学習アルゴリズムに注目した。
論文 参考訳(メタデータ) (2021-01-08T18:55:07Z) - Hard-ODT: Hardware-Friendly Online Decision Tree Learning Algorithm and
System [17.55491405857204]
ビッグデータの時代、従来の決定木誘導アルゴリズムは大規模なデータセットの学習には適していません。
最先端のオンライン学習モデルの1つであるHoeffdingツリーの誘導を改善するための新しい量子化ベースのアルゴリズムを紹介します。
本稿では,フィールドプログラマブルゲートアレイ(FPGA)上に,システムレベルの最適化手法を用いた高性能,ハードウェア効率,スケーラブルなオンライン決定木学習システムであるHard-ODTを提案する。
論文 参考訳(メタデータ) (2020-12-11T12:06:44Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z) - AutoML-Zero: Evolving Machine Learning Algorithms From Scratch [76.83052807776276]
基本数学的操作をビルディングブロックとして使うだけで,完全な機械学習アルゴリズムを自動的に発見できることが示される。
汎用的な検索空間を通じて人間のバイアスを大幅に低減する新しいフレームワークを導入することでこれを実証する。
機械学習アルゴリズムをゼロから発見する上で、これらの予備的な成功は、この分野における有望な新しい方向性を示していると信じている。
論文 参考訳(メタデータ) (2020-03-06T19:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。