論文の概要: Hardware Acceleration of Explainable Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2305.04887v1
- Date: Thu, 4 May 2023 19:07:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 13:20:41.683157
- Title: Hardware Acceleration of Explainable Artificial Intelligence
- Title(参考訳): 説明可能な人工知能のハードウェアアクセラレーション
- Authors: Zhixin Pan and Prabhat Mishra
- Abstract要約: 我々は,既存のハードウェアアクセラレーターを用いて,様々なXAIアルゴリズムを高速化する,シンプルかつ効率的なフレームワークを提案する。
提案手法はリアルタイムな結果解釈につながる可能性がある。
- 参考スコア(独自算出の注目度): 5.076419064097733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) is successful in achieving human-level artificial
intelligence in various fields. However, it lacks the ability to explain an
outcome due to its black-box nature. While recent efforts on explainable AI
(XAI) has received significant attention, most of the existing solutions are
not applicable in real-time systems since they map interpretability as an
optimization problem, which leads to numerous iterations of time-consuming
complex computations. Although there are existing hardware-based acceleration
framework for XAI, they are implemented through FPGA and designed for specific
tasks, leading to expensive cost and lack of flexibility. In this paper, we
propose a simple yet efficient framework to accelerate various XAI algorithms
with existing hardware accelerators. Specifically, this paper makes three
important contributions. (1) The proposed method is the first attempt in
exploring the effectiveness of Tensor Processing Unit (TPU) to accelerate XAI.
(2) Our proposed solution explores the close relationship between several
existing XAI algorithms with matrix computations, and exploits the synergy
between convolution and Fourier transform, which takes full advantage of TPU's
inherent ability in accelerating matrix computations. (3) Our proposed approach
can lead to real-time outcome interpretation. Extensive experimental evaluation
demonstrates that proposed approach deployed on TPU can provide drastic
improvement in interpretation time (39x on average) as well as energy
efficiency (69x on average) compared to existing acceleration techniques.
- Abstract(参考訳): 機械学習(ML)は、さまざまな分野における人間レベルの人工知能の実現に成功している。
しかし、ブラックボックスの性質から結果を説明する能力が欠けている。
説明可能なAI(XAI)に関する最近の取り組みは注目されているが、既存のソリューションのほとんどは最適化問題として解釈可能性にマップされているため、リアルタイムシステムでは適用できない。
XAIには既存のハードウェアベースのアクセラレーションフレームワークがあるが、FPGAを通じて実装され、特定のタスク用に設計されているため、コストがかかり柔軟性が欠如している。
本稿では,既存のハードウェアアクセラレータを用いて様々なxaiアルゴリズムを高速化する簡易かつ効率的なフレームワークを提案する。
特に,本稿では3つの重要な貢献を行う。
1)提案手法は,XAIを高速化するためのテンソルプロセッシングユニット(TPU)の有効性を探究する最初の試みである。
2)提案手法は,行列計算と既存のXAIアルゴリズムの密接な関係を探索し,行列計算の高速化においてTPU固有の能力をフル活用する畳み込みとフーリエ変換の相乗効果を利用する。
3) 提案手法は, 実時間結果解釈につながる可能性がある。
TPUに展開する提案手法は、既存の加速技術と比較して、解釈時間(平均39倍)とエネルギー効率(平均69倍)を大幅に改善できることを示す。
関連論文リスト
- Inference Optimization of Foundation Models on AI Accelerators [68.24450520773688]
トランスフォーマーアーキテクチャを備えた大規模言語モデル(LLM)を含む強力な基礎モデルは、ジェネレーティブAIの新たな時代を支えている。
モデルパラメータの数が数十億に達すると、実際のシナリオにおける推論コストと高いレイテンシーが排除される。
このチュートリアルでは、AIアクセラレータを用いた補完推論最適化テクニックに関する包括的な議論を行っている。
論文 参考訳(メタデータ) (2024-07-12T09:24:34Z) - Using the Abstract Computer Architecture Description Language to Model
AI Hardware Accelerators [77.89070422157178]
AI統合製品の製造者は、製品のパフォーマンス要件に適合するアクセラレータを選択するという、重大な課題に直面します。
抽象コンピュータアーキテクチャ記述言語(ACADL)は、コンピュータアーキテクチャブロック図の簡潔な形式化である。
本稿では,AIハードウェアアクセラレーションのモデル化にACADLを用いること,DNNのマッピングにACADL記述を使用し,タイミングシミュレーションのセマンティクスを解説し,性能評価結果の収集を行う。
論文 参考訳(メタデータ) (2024-01-30T19:27:16Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - TPU as Cryptographic Accelerator [13.44836928672667]
FHE(Fully Homomorphic Encryption)やZKP(Zero-Knowledge Proofs)のような暗号スキームは、計算の複雑さによってしばしば妨げられる。
本稿では,暗号乗算の高速化にTPU/NPUを活用する可能性について検討し,FHEおよびZKP方式の性能向上を図る。
論文 参考訳(メタデータ) (2023-07-13T04:38:32Z) - Efficient XAI Techniques: A Taxonomic Survey [40.74369038951756]
我々は、XAI加速の既存の手法を、非アモルト化および効率的なアモルト化法にレビューする。
我々は、トレーニングフェーズ、デプロイメントフェーズ、およびユースケースの観点から、効率的なXAIパイプラインの制限を分析します。
論文 参考訳(メタデータ) (2023-02-07T03:15:38Z) - Deep learning applied to computational mechanics: A comprehensive
review, state of the art, and the classics [77.34726150561087]
人工知能,特に深層学習(DL)の最近の進歩を概観する。
ハイブリッドおよび純粋機械学習(ML)の手法について論じる。
AIの歴史と限界は、特に古典の誤解や誤解を指摘し、議論され、議論される。
論文 参考訳(メタデータ) (2022-12-18T02:03:00Z) - Gradient Backpropagation based Feature Attribution to Enable
Explainable-AI on the Edge [1.7338677787507768]
そこで本研究では,勾配バックプロパゲーションに基づく特徴属性アルゴリズムのデータフローを解析し,推論に要するリソースのオーバーヘッドを推定する。
我々は,エッジデバイスを対象とした高レベル合成(HLS)に基づくFPGA設計を開発し,3つの特徴帰属アルゴリズムをサポートする。
提案手法は,最小限のオーバーヘッドで特徴属性をサポートするために推論アクセラレータを再利用し,エッジ上でのリアルタイムXAIを実現する経路を示す。
論文 参考訳(メタデータ) (2022-10-19T22:58:59Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - Hardware Acceleration of Explainable Machine Learning using Tensor
Processing Units [3.5027291542274357]
処理ユニット(TPU)を用いた説明可能な機械学習(ML)を加速するための新しいフレームワークを提案する。
このフレームワークは、行列畳み込みとフーリエ変換の相乗効果を利用し、行列計算を加速するTPUの自然能力を最大限に活用する。
提案手法は幅広いMLアルゴリズムに適用可能であり、TPUベースのアクセラレーションの有効活用は、リアルタイム結果の解釈につながる可能性があります。
論文 参考訳(メタデータ) (2021-03-22T15:11:45Z) - 3-Regular 3-XORSAT Planted Solutions Benchmark of Classical and Quantum
Heuristic Optimizers [0.30586855806896046]
特定のコンピューティング集約的な課題に対処するための選択肢として、専用ハードウェアが登場した。
これらのプラットフォームには、デジタル論理の高効率ハードウェア実装から、新しいアルゴリズムを実装するアナログハードウェアの提案まで、多くの異なる特徴がある。
本研究では、解を効率的に見つけることができる線形方程式の特定のクラスの写像を用いて、これらの異なるアプローチのいくつかをベンチマークする。
論文 参考訳(メタデータ) (2021-03-15T15:40:00Z) - Reconfigurable Intelligent Surface Assisted Mobile Edge Computing with
Heterogeneous Learning Tasks [53.1636151439562]
モバイルエッジコンピューティング(MEC)は、AIアプリケーションに自然なプラットフォームを提供します。
再構成可能なインテリジェントサーフェス(RIS)の助けを借りて、MECで機械学習タスクを実行するインフラストラクチャを提示します。
具体的には,モバイルユーザの送信パワー,基地局のビームフォーミングベクトル,risの位相シフト行列を共同で最適化することにより,参加ユーザの学習誤差を最小化する。
論文 参考訳(メタデータ) (2020-12-25T07:08:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。