論文の概要: AMULET: Adaptive Matrix-Multiplication-Like Tasks
- arxiv url: http://arxiv.org/abs/2305.08872v1
- Date: Fri, 12 May 2023 17:04:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 17:50:15.739436
- Title: AMULET: Adaptive Matrix-Multiplication-Like Tasks
- Title(参考訳): amulet:適応行列乗算のようなタスク
- Authors: Junyoung Kim, Kenneth Ross, Eric Sedlar, Lukas Stadler
- Abstract要約: オープンソースコンパイラを拡張して,行列乗算のようなタスクを認識し,最適化する。
私たちのフレームワークは、Amuletと呼ばれ、データベーススタイルとコンパイラ最適化の両方の技術を使用します。
一般に、Amuletは手動の行列乗算ライブラリの15%以内で動作し、より広範な計算処理を処理している。
- 参考スコア(独自算出の注目度): 6.094431019524036
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many useful tasks in data science and machine learning applications can be
written as simple variations of matrix multiplication. However, users have
difficulty performing such tasks as existing matrix/vector libraries support
only a limited class of computations hand-tuned for each unique hardware
platform. Users can alternatively write the task as a simple nested loop but
current compilers are not sophisticated enough to generate fast code for the
task written in this way. To address these issues, we extend an open-source
compiler to recognize and optimize these matrix multiplication-like tasks. Our
framework, called Amulet, uses both database-style and compiler optimization
techniques to generate fast code tailored to its execution environment. We show
through experiments that Amulet achieves speedups on a variety of matrix
multiplication-like tasks compared to existing compilers. For large matrices
Amulet typically performs within 15% of hand-tuned matrix multiplication
libraries, while handling a much broader class of computations.
- Abstract(参考訳): データサイエンスおよび機械学習アプリケーションにおける多くの有用なタスクは、行列乗算の単純なバリエーションとして記述できる。
しかし、既存の行列/ベクトルライブラリは各ハードウェアプラットフォームに対して手動で調整された限られた種類の計算しかサポートしていないため、ユーザーはそのようなタスクを実行するのが難しい。
ユーザは代わりに、タスクを単純なネストループとして書くことができるが、現在のコンパイラは、このように記述されたタスクの高速コードを生成するのに十分な高度ではない。
これらの問題に対処するため,オープンソースコンパイラを拡張して,行列乗算のようなタスクを認識し,最適化する。
amuletと呼ばれるこのフレームワークは、データベーススタイルとコンパイラの最適化技術を使って、実行環境に合わせた高速なコードを生成する。
我々は,Amuletが既存のコンパイラと比較して,行列乗算のようなタスクの高速化を実現する実験を通して示す。
大規模な行列の場合、Amuletは手動の行列乗算ライブラリの15%以内に動作し、より広範な計算クラスを扱う。
関連論文リスト
- Masked Matrix Multiplication for Emergent Sparsity [1.4786952412297807]
トランスフォーマーモデルは、計算が高密度データへの選択的スパースアクセスを実行する創発的な空間を示す。
ベクトル化および並列行列乗算システム A X B = C を構築し,不要な計算を除去する。
論文 参考訳(メタデータ) (2024-02-21T20:36:08Z) - CoLA: Exploiting Compositional Structure for Automatic and Efficient
Numerical Linear Algebra [62.37017125812101]
機械学習における大規模線形代数問題に対して, CoLA という, 単純だが汎用的なフレームワークを提案する。
線形演算子抽象と合成ディスパッチルールを組み合わせることで、CoLAはメモリと実行時の効率的な数値アルゴリズムを自動的に構築する。
偏微分方程式,ガウス過程,同変モデル構築,教師なし学習など,幅広い応用で有効性を示す。
論文 参考訳(メタデータ) (2023-09-06T14:59:38Z) - Batch-efficient EigenDecomposition for Small and Medium Matrices [65.67315418971688]
EigenDecomposition (ED)は多くのコンピュータビジョンアルゴリズムとアプリケーションの中心にある。
本稿では,コンピュータビジョンの応用シナリオに特化したQRベースのED手法を提案する。
論文 参考訳(メタデータ) (2022-07-09T09:14:12Z) - Efficient GPU implementation of randomized SVD and its applications [17.71779625877989]
行列分解は、次元データの圧縮やディープラーニングアルゴリズムなど、機械学習においてユビキタスである。
行列分解の典型的な解は、計算コストと時間を大幅に増大させる複雑さを持つ。
我々は,計算行列分解の計算負担を軽減するために,現代のグラフィカル処理ユニット(GPU)で並列に動作する効率的な処理操作を利用する。
論文 参考訳(メタデータ) (2021-10-05T07:42:41Z) - Multiplying Matrices Without Multiplying [0.0]
行列の乗算は機械学習における最も基本的で計算集約的な操作の1つである。
本稿では,既存の手法を大幅に上回る学習ベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-21T05:08:54Z) - A matrix math facility for Power ISA(TM) processors [0.16910097443356495]
マトリックス・マルチ・アシスト(Matrix-Multiply Assist)と呼ばれる新しい数学命令のファミリーがPower ISA(TM)バージョン3.1で導入された。
これらの命令は、将来のPOWER10プロセッサで高スループットの計算エンジンをパワー効率で実装するきっかけとなった。
コア毎のパフォーマンスは、前世代のPOWER9プロセッサの4倍、一定の周波数で向上している。
論文 参考訳(メタデータ) (2021-04-07T14:17:32Z) - What if Neural Networks had SVDs? [66.91160214071088]
様々なニューラルネットワークでは、行列反転のような時間を要する行列演算を採用している。
本稿では,行列演算を高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-29T12:58:52Z) - Kernel methods through the roof: handling billions of points efficiently [94.31450736250918]
カーネル法は、非パラメトリック学習に対するエレガントで原則化されたアプローチを提供するが、今のところ大規模な問題ではほとんど利用できない。
最近の進歩は、最適化、数値線形代数、ランダム射影など、多くのアルゴリズム的アイデアの利点を示している。
ここでは、これらの取り組みをさらに進めて、GPUハードウェアを最大限に活用する解決器を開発し、テストする。
論文 参考訳(メタデータ) (2020-06-18T08:16:25Z) - PolyDL: Polyhedral Optimizations for Creation of High Performance DL
primitives [55.79741270235602]
本稿では,Deep Learningプリミティブの高性能実装を自動的に生成するコンパイラアルゴリズムを提案する。
我々は多面体モデルを用いた新しいデータ再利用分析アルゴリズムを開発した。
また、このようなハイブリッドコンパイラとライブラリ使用の最小限のアプローチが、最先端のパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2020-06-02T06:44:09Z) - Sketching Transformed Matrices with Applications to Natural Language
Processing [76.6222695417524]
本稿では, 変換行列を用いて, 与えられた小さな行列の積を計算するための空間効率のよいスケッチアルゴリズムを提案する。
提案手法は誤差が小さく,空間と時間の両方で効率がよいことを示す。
論文 参考訳(メタデータ) (2020-02-23T03:07:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。