論文の概要: Towards automated kernel selection in machine learning systems: A SYCL
case study
- arxiv url: http://arxiv.org/abs/2003.06795v1
- Date: Sun, 15 Mar 2020 11:23:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 08:37:09.121175
- Title: Towards automated kernel selection in machine learning systems: A SYCL
case study
- Title(参考訳): 機械学習システムにおけるカーネルの自動選択に向けて:SYCLケーススタディ
- Authors: John Lawson
- Abstract要約: 本稿では,ライブラリに高性能なSYCLカーネルをデプロイするケーススタディにおいて,機械学習を用いてカーネルの選択を行う。
自動チューニングと機械学習を組み合わせることで、これらのカーネル選択プロセスは、新しいハードウェアで高いパフォーマンスを達成するための開発者の努力をほとんど必要とせずにデプロイできる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated tuning of compute kernels is a popular area of research, mainly
focused on finding optimal kernel parameters for a problem with fixed input
sizes. This approach is good for deploying machine learning models, where the
network topology is constant, but machine learning research often involves
changing network topologies and hyperparameters. Traditional kernel auto-tuning
has limited impact in this case; a more general selection of kernels is
required for libraries to accelerate machine learning research.
In this paper we present initial results using machine learning to select
kernels in a case study deploying high performance SYCL kernels in libraries
that target a range of heterogeneous devices from desktop GPUs to embedded
accelerators. The techniques investigated apply more generally and could
similarly be integrated with other heterogeneous programming systems. By
combining auto-tuning and machine learning these kernel selection processes can
be deployed with little developer effort to achieve high performance on new
hardware.
- Abstract(参考訳): 計算カーネルの自動チューニングは、主に固定入力サイズの問題に対する最適なカーネルパラメータを見つけることに焦点を当てた、一般的な研究分野である。
このアプローチは、ネットワークトポロジーが一定である機械学習モデルをデプロイするのに適しているが、機械学習の研究は、しばしばネットワークトポロジーとハイパーパラメータを変更することを伴う。
従来のカーネルの自動チューニングは、このケースでは影響が限られており、ライブラリが機械学習の研究を加速するためには、より一般的なカーネルの選択が必要である。
本稿では,デスクトップGPUから組み込みアクセラレータに至るまで,多種多様なデバイスをターゲットにしたライブラリに高性能なSYCLカーネルをデプロイするケーススタディにおいて,機械学習を用いたカーネル選択の初期結果を示す。
研究手法はより一般的に適用され、同様に他の異種プログラミングシステムと統合することができる。
自動チューニングと機械学習を組み合わせることで、これらのカーネル選択プロセスは、新しいハードウェアで高いパフォーマンスを達成するために、ほとんど開発者の努力なしにデプロイできる。
関連論文リスト
- Kernel Approximation using Analog In-Memory Computing [3.5231018007564203]
カーネル関数は、いくつかの機械学習アルゴリズムの重要な要素であるが、しばしば大きなメモリと計算コストを発生させる。
本稿では,混合信号アナログメモリ・コンピューティング(AIMC)アーキテクチャに適した機械学習アルゴリズムにおけるカーネル近似手法を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:18:47Z) - Center-Sensitive Kernel Optimization for Efficient On-Device Incremental Learning [88.78080749909665]
現在のオンデバイストレーニング手法は、破滅的な忘れを考慮せずに、効率的なトレーニングにのみ焦点をあてている。
本稿では,単純だが効果的なエッジフレンドリーなインクリメンタル学習フレームワークを提案する。
本手法は,メモリの削減と近似計算により,平均精度38.08%の高速化を実現する。
論文 参考訳(メタデータ) (2024-06-13T05:49:29Z) - Structural Kernel Search via Bayesian Optimization and Symbolical
Optimal Transport [5.1672267755831705]
ガウスのプロセスでは、カーネルの選択は重要なタスクであり、しばしば専門家が手動で行う。
本稿では,カーネル空間を包含する新しい効率的な探索法を提案する。
論文 参考訳(メタデータ) (2022-10-21T09:30:21Z) - Local Sample-weighted Multiple Kernel Clustering with Consensus
Discriminative Graph [73.68184322526338]
マルチカーネルクラスタリング(MKC)は、ベースカーネルの集合から最適な情報融合を実現するためにコミットされる。
本稿では,新しい局所サンプル重み付きマルチカーネルクラスタリングモデルを提案する。
実験により, LSWMKCはより優れた局所多様体表現を有し, 既存のカーネルやグラフベースのクラスタリングアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-05T05:00:38Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - mlf-core: a framework for deterministic machine learning [0.08795040582681389]
主要な機械学習ライブラリは、原子操作に基づく非決定論的アルゴリズムの使用をデフォルトとする。
この欠点を克服するために、様々な機械学習ライブラリは非決定論的アルゴリズムの決定論的なものをリリースした。
我々は、これらの要件を満たし維持するための機械学習プロジェクトを支援する、新しいソフトウェアソリューションであるmlf-coreを開発した。
論文 参考訳(メタデータ) (2021-04-15T17:58:03Z) - Source Code Classification for Energy Efficiency in Parallel Ultra
Low-Power Microcontrollers [5.4352987210173955]
本稿では,ソフトウェアツールチェーンの知性を向上し,最新のアーキテクチャを最大限に活用することを目的とする。
低電力の並列組込みアーキテクチャの場合、これは、例えばコア数の観点から構成を見つけることを意味し、最小限のエネルギー消費につながる。
実験によれば、ソースコード上で機械学習モデルを使用して最適なエネルギースケーリング構成を自動的に選択することは可能であり、エネルギー最小化のための自動システム構成のコンテキストで使用できる可能性がある。
論文 参考訳(メタデータ) (2020-12-12T15:12:03Z) - Performance portability through machine learning guided kernel selection
in SYCL libraries [0.0]
汎用計算ライブラリは、ユーザが提供するすべての入力とパラメータに対応できなければならない。
機械学習の手法は、どちらの問題にも対処できる。
新しいハードウェアや問題のためにプロセスをチューニングしても、開発者の努力や専門知識は必要ない。
論文 参考訳(メタデータ) (2020-08-30T11:44:37Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z) - PolyScientist: Automatic Loop Transformations Combined with Microkernels
for Optimization of Deep Learning Primitives [55.79741270235602]
深層学習カーネル開発のためのハイブリッドソリューションを開発する。
我々は、高度な多面体技術を用いて、パフォーマンスのために外部ループを自動的に調整する。
論文 参考訳(メタデータ) (2020-02-06T08:02:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。