論文の概要: Exploration of TPUs for AI Applications
- arxiv url: http://arxiv.org/abs/2309.08918v1
- Date: Sat, 16 Sep 2023 07:58:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 18:46:17.459906
- Title: Exploration of TPUs for AI Applications
- Title(参考訳): AI応用のためのTPUの探索
- Authors: Diego Sanmart\'in Carri\'on, Vera Prohaska
- Abstract要約: Processing Units (TPU) は、Googleが開発したディープラーニングのためのハードウェアアクセラレーターである。
本稿では,AIに着目したTPUの性能とエッジコンピューティングの実装について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Tensor Processing Units (TPUs) are specialized hardware accelerators for deep
learning developed by Google. This paper explores the performance of TPU with a
focus on AI and its implementation in edge computing. It first provides an
overview of TPUs, specifically their design in relation to neural networks,
their general architecture, compilation techniques and supporting frameworks.
Furthermore, we provide a comparative analysis of Cloud and Edge TPU
performance against other counterpart chip architectures. It is then discussed
how TPUs can be used to speed up AI workloads. The results show that TPUs can
provide significant performance improvements both in cloud and edge computing.
Additionally, we address the need for further research for the deployment of
more architectures in the Edge TPU, as well as the need for the development of
more robust comparisons in edge computing.
- Abstract(参考訳): Tensor Processing Units (TPU) は、Googleが開発したディープラーニングのためのハードウェアアクセラレーターである。
本稿では,AIに着目したTPUの性能とエッジコンピューティングの実装について述べる。
まず、TPUの概要、特にニューラルネットワークに関する設計、一般的なアーキテクチャ、コンパイルテクニック、サポートフレームワークについて説明する。
さらに,他のチップアーキテクチャと比較して,クラウドとエッジTPUの性能の比較分析を行った。
次に、AIワークロードの高速化にTPUを使用する方法について議論する。
その結果,クラウドとエッジコンピューティングの両方において,TPUは大幅なパフォーマンス向上を実現することができた。
さらに、Edge TPUにより多くのアーキテクチャを配置するためのさらなる研究の必要性や、エッジコンピューティングにおけるより堅牢な比較の開発の必要性にも対処する。
関連論文リスト
- Inference Optimization of Foundation Models on AI Accelerators [68.24450520773688]
トランスフォーマーアーキテクチャを備えた大規模言語モデル(LLM)を含む強力な基礎モデルは、ジェネレーティブAIの新たな時代を支えている。
モデルパラメータの数が数十億に達すると、実際のシナリオにおける推論コストと高いレイテンシーが排除される。
このチュートリアルでは、AIアクセラレータを用いた補完推論最適化テクニックに関する包括的な議論を行っている。
論文 参考訳(メタデータ) (2024-07-12T09:24:34Z) - Benchmarking End-To-End Performance of AI-Based Chip Placement Algorithms [77.71341200638416]
ChiPBenchはAIベースのチップ配置アルゴリズムの有効性を評価するために設計されたベンチマークである。
評価のために、さまざまなドメイン(CPU、GPU、マイクロコントローラなど)から20の回路を集めました。
その結果, 単点アルゴリズムの中間距離が支配的であったとしても, 最終的なPPA結果は満足できないことがわかった。
論文 参考訳(メタデータ) (2024-07-03T03:29:23Z) - Networking Systems for Video Anomaly Detection: A Tutorial and Survey [55.28514053969056]
ビデオ異常検出(VAD)は人工知能(AI)コミュニティにおける基本的な研究課題である。
本稿では,各種深層学習駆動型VAD経路の基本前提,学習フレームワーク,適用シナリオについて述べる。
我々は、産業用IoTおよびスマート都市における最新のNSVAD研究と、デプロイ可能なNSVADのためのエンドクラウド共同アーキテクチャを紹介します。
論文 参考訳(メタデータ) (2024-05-16T02:00:44Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Heterogeneous Integration of In-Memory Analog Computing Architectures
with Tensor Processing Units [0.0]
本稿では,IMACユニットとエッジTPUを統合してモバイルCNNの性能を向上させる,新しい,異種,混合信号,混合精度アーキテクチャを提案する。
本稿では,TPU-IMACアーキテクチャ上にモデルをデプロイする際の潜在的な精度低下を軽減するために,混合精度トレーニング手法を取り入れた統合学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-18T19:44:56Z) - Edge-Cloud Polarization and Collaboration: A Comprehensive Survey [61.05059817550049]
クラウドとエッジ両方のAIの体系的なレビューを行います。
私たちはクラウドとエッジモデリングの協調学習メカニズムを最初にセットアップしました。
我々は現在進行中の最先端AIトピックの可能性と実践経験について議論する。
論文 参考訳(メタデータ) (2021-11-11T05:58:23Z) - Exploring Deep Neural Networks on Edge TPU [2.9573904824595614]
本稿では、フィードフォワードニューラルネットワークにおけるGoogleのEdge TPUの性能について検討する。
We compare the energy efficiency of Edge TPU with widely-useed embedded CPU ARM Cortex-A53。
論文 参考訳(メタデータ) (2021-10-17T14:01:26Z) - Deep Learning on Edge TPUs [0.0]
Edge TPUプラットフォーム、Edge TPUを使用して達成されたタスク、Edge TPUハードウェアにモデルをデプロイするために必要なステップについてレビューします。
Edge TPUは、一般的なコンピュータビジョンタスクに対処するだけでなく、他のハードウェアアクセラレータを上回ります。
Edge TPUをカメラに組み込むことで、一次データのシームレスな分析が可能になる。
論文 参考訳(メタデータ) (2021-08-31T10:23:37Z) - Exploring Edge TPU for Network Intrusion Detection in IoT [2.8873930745906957]
本稿では、ディープラーニングアプローチに基づいて、IoTのエッジに実用的なネットワーク侵入検知システム(NIDS)を実装するためのGoogleのEdge TPUについて検討する。
これら3つのメトリクスを調べるために、2つの主要なディープニューラルネットワークアーキテクチャの様々なスケールドモデルサイズが使用される。
Edge TPUベースの実装の性能は、エネルギー効率の良い組み込みCPU(ARM Cortex A53)と比較される
論文 参考訳(メタデータ) (2021-03-30T12:43:57Z) - An Evaluation of Edge TPU Accelerators for Convolutional Neural Networks [2.7584363116322863]
Edge TPUは低消費電力のエッジデバイス用のアクセラレータで、CoralやPixelなどのさまざまなGoogle製品で広く使用されている。
私たちは、エッジtpusの3つのクラスを広範囲に評価し、さまざまなコンピューティングエコシステムをカバーしました。
我々は、アクセラレーターの主要なパフォーマンス指標を推定するために、高精度な学習機械学習モデルの開発に取り組みます。
論文 参考訳(メタデータ) (2021-02-20T19:25:09Z) - Towards AIOps in Edge Computing Environments [60.27785717687999]
本稿では,異種分散環境に適用可能なaiopsプラットフォームのシステム設計について述べる。
高頻度でメトリクスを収集し、エッジデバイス上で特定の異常検出アルゴリズムを直接実行することが可能である。
論文 参考訳(メタデータ) (2021-02-12T09:33:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。