論文の概要: Exploration of TPUs for AI Applications
- arxiv url: http://arxiv.org/abs/2309.08918v2
- Date: Tue, 14 Nov 2023 18:30:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 18:10:16.738816
- Title: Exploration of TPUs for AI Applications
- Title(参考訳): AI応用のためのTPUの探索
- Authors: Diego Sanmart\'in Carri\'on, Vera Prohaska
- Abstract要約: Processing Units (TPU) は、Googleが開発したディープラーニングのためのハードウェアアクセラレーターである。
本稿では、クラウドおよびエッジコンピューティングにおけるTPUを、AIアプリケーションに焦点をあてて検討することを目的とする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Tensor Processing Units (TPUs) are specialized hardware accelerators for deep
learning developed by Google. This paper aims to explore TPUs in cloud and edge
computing focusing on its applications in AI. We provide an overview of TPUs,
their general architecture, specifically their design in relation to neural
networks, compilation techniques and supporting frameworks. Furthermore, we
provide a comparative analysis of Cloud and Edge TPU performance against other
counterpart chip architectures. Our results show that TPUs can provide
significant performance improvements in both cloud and edge computing.
Additionally, this paper underscores the imperative need for further research
in optimization techniques for efficient deployment of AI architectures on the
Edge TPU and benchmarking standards for a more robust comparative analysis in
edge computing scenarios. The primary motivation behind this push for research
is that efficient AI acceleration, facilitated by TPUs, can lead to substantial
savings in terms of time, money, and environmental resources.
- Abstract(参考訳): Tensor Processing Units (TPU) は、Googleが開発したディープラーニングのためのハードウェアアクセラレーターである。
本稿では、クラウドおよびエッジコンピューティングにおけるTPUを、AIアプリケーションに焦点をあてて検討することを目的とする。
ニューラルネットワーク,コンパイル技術,サポートフレームワークに関して,TPUの概要,その汎用アーキテクチャ,特にその設計について概説する。
さらに,他のチップアーキテクチャと比較して,クラウドとエッジTPUの性能の比較分析を行った。
その結果,tpuはクラウドとエッジの両コンピューティングにおいて,大幅なパフォーマンス向上が期待できることがわかった。
さらに、エッジTPUとベンチマーク標準にAIアーキテクチャを効率的に配置するための最適化手法のさらなる研究の必要性を、エッジコンピューティングシナリオにおけるより堅牢な比較分析のために強調する。
この研究を推し進める主な動機は、TPUによって促進される効率的なAI加速が、時間、お金、環境資源の面でかなりの節約につながることである。
関連論文リスト
- Inference Optimization of Foundation Models on AI Accelerators [68.24450520773688]
トランスフォーマーアーキテクチャを備えた大規模言語モデル(LLM)を含む強力な基礎モデルは、ジェネレーティブAIの新たな時代を支えている。
モデルパラメータの数が数十億に達すると、実際のシナリオにおける推論コストと高いレイテンシーが排除される。
このチュートリアルでは、AIアクセラレータを用いた補完推論最適化テクニックに関する包括的な議論を行っている。
論文 参考訳(メタデータ) (2024-07-12T09:24:34Z) - Benchmarking End-To-End Performance of AI-Based Chip Placement Algorithms [77.71341200638416]
ChiPBenchはAIベースのチップ配置アルゴリズムの有効性を評価するために設計されたベンチマークである。
評価のために、さまざまなドメイン(CPU、GPU、マイクロコントローラなど)から20の回路を集めました。
その結果, 単点アルゴリズムの中間距離が支配的であったとしても, 最終的なPPA結果は満足できないことがわかった。
論文 参考訳(メタデータ) (2024-07-03T03:29:23Z) - Networking Systems for Video Anomaly Detection: A Tutorial and Survey [55.28514053969056]
ビデオ異常検出(VAD)は人工知能(AI)コミュニティにおける基本的な研究課題である。
本稿では,各種深層学習駆動型VAD経路の基本前提,学習フレームワーク,適用シナリオについて述べる。
我々は、産業用IoTおよびスマート都市における最新のNSVAD研究と、デプロイ可能なNSVADのためのエンドクラウド共同アーキテクチャを紹介します。
論文 参考訳(メタデータ) (2024-05-16T02:00:44Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Heterogeneous Integration of In-Memory Analog Computing Architectures
with Tensor Processing Units [0.0]
本稿では,IMACユニットとエッジTPUを統合してモバイルCNNの性能を向上させる,新しい,異種,混合信号,混合精度アーキテクチャを提案する。
本稿では,TPU-IMACアーキテクチャ上にモデルをデプロイする際の潜在的な精度低下を軽減するために,混合精度トレーニング手法を取り入れた統合学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-18T19:44:56Z) - Edge-Cloud Polarization and Collaboration: A Comprehensive Survey [61.05059817550049]
クラウドとエッジ両方のAIの体系的なレビューを行います。
私たちはクラウドとエッジモデリングの協調学習メカニズムを最初にセットアップしました。
我々は現在進行中の最先端AIトピックの可能性と実践経験について議論する。
論文 参考訳(メタデータ) (2021-11-11T05:58:23Z) - Exploring Deep Neural Networks on Edge TPU [2.9573904824595614]
本稿では、フィードフォワードニューラルネットワークにおけるGoogleのEdge TPUの性能について検討する。
We compare the energy efficiency of Edge TPU with widely-useed embedded CPU ARM Cortex-A53。
論文 参考訳(メタデータ) (2021-10-17T14:01:26Z) - Deep Learning on Edge TPUs [0.0]
Edge TPUプラットフォーム、Edge TPUを使用して達成されたタスク、Edge TPUハードウェアにモデルをデプロイするために必要なステップについてレビューします。
Edge TPUは、一般的なコンピュータビジョンタスクに対処するだけでなく、他のハードウェアアクセラレータを上回ります。
Edge TPUをカメラに組み込むことで、一次データのシームレスな分析が可能になる。
論文 参考訳(メタデータ) (2021-08-31T10:23:37Z) - Exploring Edge TPU for Network Intrusion Detection in IoT [2.8873930745906957]
本稿では、ディープラーニングアプローチに基づいて、IoTのエッジに実用的なネットワーク侵入検知システム(NIDS)を実装するためのGoogleのEdge TPUについて検討する。
これら3つのメトリクスを調べるために、2つの主要なディープニューラルネットワークアーキテクチャの様々なスケールドモデルサイズが使用される。
Edge TPUベースの実装の性能は、エネルギー効率の良い組み込みCPU(ARM Cortex A53)と比較される
論文 参考訳(メタデータ) (2021-03-30T12:43:57Z) - An Evaluation of Edge TPU Accelerators for Convolutional Neural Networks [2.7584363116322863]
Edge TPUは低消費電力のエッジデバイス用のアクセラレータで、CoralやPixelなどのさまざまなGoogle製品で広く使用されている。
私たちは、エッジtpusの3つのクラスを広範囲に評価し、さまざまなコンピューティングエコシステムをカバーしました。
我々は、アクセラレーターの主要なパフォーマンス指標を推定するために、高精度な学習機械学習モデルの開発に取り組みます。
論文 参考訳(メタデータ) (2021-02-20T19:25:09Z) - Towards AIOps in Edge Computing Environments [60.27785717687999]
本稿では,異種分散環境に適用可能なaiopsプラットフォームのシステム設計について述べる。
高頻度でメトリクスを収集し、エッジデバイス上で特定の異常検出アルゴリズムを直接実行することが可能である。
論文 参考訳(メタデータ) (2021-02-12T09:33:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。