論文の概要: Hardware Acceleration of Explainable Machine Learning using Tensor
Processing Units
- arxiv url: http://arxiv.org/abs/2103.11927v1
- Date: Mon, 22 Mar 2021 15:11:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 20:47:31.554414
- Title: Hardware Acceleration of Explainable Machine Learning using Tensor
Processing Units
- Title(参考訳): テンソル処理ユニットを用いた説明可能な機械学習のハードウェアアクセラレーション
- Authors: Zhixin Pan and Prabhat Mishra
- Abstract要約: 処理ユニット(TPU)を用いた説明可能な機械学習(ML)を加速するための新しいフレームワークを提案する。
このフレームワークは、行列畳み込みとフーリエ変換の相乗効果を利用し、行列計算を加速するTPUの自然能力を最大限に活用する。
提案手法は幅広いMLアルゴリズムに適用可能であり、TPUベースのアクセラレーションの有効活用は、リアルタイム結果の解釈につながる可能性があります。
- 参考スコア(独自算出の注目度): 3.5027291542274357
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Machine learning (ML) is successful in achieving human-level performance in
various fields. However, it lacks the ability to explain an outcome due to its
black-box nature. While existing explainable ML is promising, almost all of
these methods focus on formatting interpretability as an optimization problem.
Such a mapping leads to numerous iterations of time-consuming complex
computations, which limits their applicability in real-time applications. In
this paper, we propose a novel framework for accelerating explainable ML using
Tensor Processing Units (TPUs). The proposed framework exploits the synergy
between matrix convolution and Fourier transform, and takes full advantage of
TPU's natural ability in accelerating matrix computations. Specifically, this
paper makes three important contributions. (1) To the best of our knowledge,
our proposed work is the first attempt in enabling hardware acceleration of
explainable ML using TPUs. (2) Our proposed approach is applicable across a
wide variety of ML algorithms, and effective utilization of TPU-based
acceleration can lead to real-time outcome interpretation. (3) Extensive
experimental results demonstrate that our proposed approach can provide an
order-of-magnitude speedup in both classification time (25x on average) and
interpretation time (13x on average) compared to state-of-the-art techniques.
- Abstract(参考訳): 機械学習(ML)は、様々な分野で人間レベルのパフォーマンスを達成するのに成功している。
しかし、ブラックボックスの性質から結果を説明する能力が欠けている。
既存の説明可能なMLは有望であるが、これらの手法のほとんどは最適化問題として解釈可能性の形式化に焦点を当てている。
このようなマッピングは、時間を要する複雑な計算を何度も繰り返し、リアルタイムアプリケーションに適用性を制限する。
本稿では、テンソル処理ユニット(TPU)を用いた説明可能なMLの高速化のための新しいフレームワークを提案する。
提案フレームワークは,行列畳み込みとフーリエ変換の相乗効果を利用して,行列計算の高速化にTPUの自然な能力をフル活用する。
特に,本稿では3つの重要な貢献を行う。
1)我々の知る限り,提案手法はTPUを用いた説明可能なMLのハードウェアアクセラレーションを実現するための最初の試みである。
2)提案手法は多種多様なMLアルゴリズムに適用可能であり,TPUベースの高速化を効果的に活用することでリアルタイムな結果の解釈が可能となる。
3) 広範な実験結果から,提案手法は分類時間 (平均25倍) と解釈時間 (平均13倍) の両方において,最先端技術と比較して桁違いに高速化できることがわかった。
関連論文リスト
- Flex-TPU: A Flexible TPU with Runtime Reconfigurable Dataflow Architecture [0.0]
この作業はFlex-TPUと呼ばれる再構成可能なデータフローTPUの開発で構成されており、実行時に層ごとのデータフローを動的に変更することができる。
その結果,Flex-TPUの設計は従来のTPUに比べて2.75倍の大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2024-07-11T17:33:38Z) - Tender: Accelerating Large Language Models via Tensor Decomposition and Runtime Requantization [0.6445087473595953]
大規模言語モデル(LLM)は、機械学習における様々なタスクにおいて優れたパフォーマンスを示す。
LLM推論のデプロイは、高い計算とメモリ要求のために問題となる。
我々は,低精度でLLM推論を効率的に展開できるアルゴリズム-ハードウェア共設計ソリューションであるテンダーを提案する。
論文 参考訳(メタデータ) (2024-06-16T09:51:55Z) - Hardware Acceleration of Explainable Artificial Intelligence [5.076419064097733]
我々は,既存のハードウェアアクセラレーターを用いて,様々なXAIアルゴリズムを高速化する,シンプルかつ効率的なフレームワークを提案する。
提案手法はリアルタイムな結果解釈につながる可能性がある。
論文 参考訳(メタデータ) (2023-05-04T19:07:29Z) - Deep learning applied to computational mechanics: A comprehensive
review, state of the art, and the classics [77.34726150561087]
人工知能,特に深層学習(DL)の最近の進歩を概観する。
ハイブリッドおよび純粋機械学習(ML)の手法について論じる。
AIの歴史と限界は、特に古典の誤解や誤解を指摘し、議論され、議論される。
論文 参考訳(メタデータ) (2022-12-18T02:03:00Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - A Deep Learning Inference Scheme Based on Pipelined Matrix
Multiplication Acceleration Design and Non-uniform Quantization [9.454905560571085]
本稿では,パイプライン行列乗算法と非一様量子化法に基づく低消費電力多層パーセプトロン(MLP)加速器を提案する。
その結果,本手法は少ない消費電力で優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2021-10-10T17:31:27Z) - A Reinforcement Learning Environment for Polyhedral Optimizations [68.8204255655161]
マルコフ決定過程(MDP)として多面体モデルにおける法的変換空間の形状に依存しない定式化を提案する。
変換を使う代わりに、定式化は可能なスケジュールの抽象空間に基づいている。
我々の総合的MDP定式化は、強化学習を用いて幅広いループで最適化ポリシーを学習することを可能にする。
論文 参考訳(メタデータ) (2021-04-28T12:41:52Z) - Machine Learning Force Fields [54.48599172620472]
機械学習(ML)は、計算化学の多くの進歩を可能にした。
最も有望な応用の1つは、MLベースの力場(FF)の構築である。
本稿では,ML-FFの応用と,それらから得られる化学的知見について概説する。
論文 参考訳(メタデータ) (2020-10-14T13:14:14Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z) - Approximation Algorithms for Sparse Principal Component Analysis [57.5357874512594]
主成分分析(PCA)は、機械学習と統計学において広く使われている次元削減手法である。
スパース主成分分析(Sparse principal Component Analysis)と呼ばれる,スパース主成分負荷を求める様々な手法が提案されている。
本研究では,SPCA問題に対するしきい値の精度,時間,近似アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-23T04:25:36Z) - IMLI: An Incremental Framework for MaxSAT-Based Learning of
Interpretable Classification Rules [40.497133083839664]
我々は、スケーラブルなランタイムパフォーマンスを実現するMaxSATベースのフレームワークに対する漸進的なアプローチであるIMLIを提案する。
IMLIは、精度と解釈性を失うことなく、最大3桁のランタイム改善を達成する。
論文 参考訳(メタデータ) (2020-01-07T05:03:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。