論文の概要: Isambard-AI: a leadership class supercomputer optimised specifically for Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2410.11199v2
- Date: Mon, 04 Nov 2024 12:47:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 21:26:36.478878
- Title: Isambard-AI: a leadership class supercomputer optimised specifically for Artificial Intelligence
- Title(参考訳): Isambard-AI:人工知能に特化したリーダーシップクラススーパーコンピュータ
- Authors: Simon McIntosh-Smith, Sadaf R Alam, Christopher Woods,
- Abstract要約: Isambard-AIは、AI関連の研究を支援するために設計された新しいリーダーシップクラスのスーパーコンピュータである。
Cray EX4000システムに基づいており、イギリスのブリストルにある新しいエネルギー効率の良いモジュラー・データ・センターに収容されている。
Isambard-AIの第1フェーズは2024年5月と6月にオンライン化され、年内に全システムの生産が予定されている。
- 参考スコア(独自算出の注目度): 0.8192907805418583
- License:
- Abstract: Isambard-AI is a new, leadership-class supercomputer, designed to support AI-related research. Based on the HPE Cray EX4000 system, and housed in a new, energy efficient Modular Data Centre in Bristol, UK, Isambard-AI employs 5,448 NVIDIA Grace-Hopper GPUs to deliver over 21 ExaFLOP/s of 8-bit floating point performance for LLM training, and over 250 PetaFLOP/s of 64-bit performance, for under 5MW. Isambard-AI integrates two, all-flash storage systems: a 20 PiByte Cray ClusterStor and a 3.5 PiByte VAST solution. Combined these give Isambard-AI flexibility for training, inference and secure data accesses and sharing. But it is the software stack where Isambard-AI will be most different from traditional HPC systems. Isambard-AI is designed to support users who may have been using GPUs in the cloud, and so access will more typically be via Jupyter notebooks, MLOps, or other web-based, interactive interfaces, rather than the approach used on traditional supercomputers of sshing into a system before submitting jobs to a batch scheduler. Its stack is designed to be quickly and regularly upgraded to keep pace with the rapid evolution of AI software, with full support for containers. Phase 1 of Isambard-AI is due online in May/June 2024, with the full system expected in production by the end of the year.
- Abstract(参考訳): Isambard-AIは、AI関連の研究を支援するために設計された新しいリーダーシップクラスのスーパーコンピュータである。
イギリスのブリストルにある新しいエネルギー効率のよいModular Data Centreに収められたHPE Cray EX4000システムに基づいて、Isambard-AIは5,448 NVIDIA Grace-Hopper GPUを使用して、LLMトレーニング用の21 ExaFLOP/s、8ビット浮動小数点演算性能と5MW以下のペタFLOP/s以上の64ビット演算性能を提供する。
Isambard-AIは、20 PiByte Cray ClusterStorと3.5 PiByte VASTソリューションという、2つのフルフラッシュストレージシステムを統合している。
これらを組み合わせることで、Isambard-AIのトレーニング、推論、セキュアなデータアクセスと共有が可能になる。
しかし、Isambard-AIが従来のHPCシステムと最も異なるソフトウェアスタックである。
Isambard-AIは、クラウドでGPUを使用したことのあるユーザをサポートするように設計されているため、ジョブをバッチスケジューラに送信する前に、従来のスーパーコンピュータで使用されているアプローチではなく、Jupyterノートブック、MLOps、その他のWebベースのインタラクティブインターフェースを介してアクセスすることが一般的である。
そのスタックは、AIソフトウェアの急速な進化に合わせて、迅速かつ定期的にアップグレードされ、コンテナを完全にサポートするように設計されている。
Isambard-AIの第1フェーズは2024年5月と6月にオンライン化され、年内に全システムの生産が予定されている。
関連論文リスト
- Accelerating AI and Computer Vision for Satellite Pose Estimation on the Intel Myriad X Embedded SoC [3.829322478948514]
本稿では,インテルのMovidius Myriad Xを用いたハイブリッドAI/CVシステムを構築し,衛星の宇宙ミッションにおける姿勢を初期化・追跡する。
提案したシングルチップ,ロバスト推定,リアルタイムソリューションは,2Wの限られたパワーエンベロープ内で,1メガピクセルのRGB画像に対して最大5FPSのスループットを提供する。
論文 参考訳(メタデータ) (2024-09-19T17:50:50Z) - OpenHands: An Open Platform for AI Software Developers as Generalist Agents [109.8507367518992]
私たちは、人間の開発者と同じような方法で世界と対話するAIエージェントを開発するためのプラットフォームであるOpenHandsを紹介します。
プラットフォームが新しいエージェントの実装を可能にし、コード実行のためのサンドボックス環境との安全なインタラクション、評価ベンチマークの導入について説明する。
論文 参考訳(メタデータ) (2024-07-23T17:50:43Z) - ProcTHOR: Large-Scale Embodied AI Using Procedural Generation [55.485985317538194]
ProcTHORは、Embodied AI環境の手続き的生成のためのフレームワークである。
ナビゲーション、アレンジメント、アーム操作のための6つの具体化されたAIベンチマークに対して、最先端の結果を実証する。
論文 参考訳(メタデータ) (2022-06-14T17:09:35Z) - SOL: Reducing the Maintenance Overhead for Integrating Hardware Support
into AI Frameworks [0.7614628596146599]
Theano、Caffe、Chainer、CNTK、MxNet、PyTorch、DL4JといったAIフレームワークは、ハイレベルなスクリプティングAPIを提供する。
主流でないCPUやGPU、アクセラレータベンダは、これらのフレームワークでハードウェアをサポートするために、高い努力を払わなければならない。
NEC Laboratories Europeは、すでに数年前にSOL AI Optimizationプロジェクトの開発を開始した。
論文 参考訳(メタデータ) (2022-05-19T08:40:46Z) - FPGA-based AI Smart NICs for Scalable Distributed AI Training Systems [62.20308752994373]
我々は、フィールドプログラマブルゲートアレイ(FPGA)を用いた分散AI訓練システムのための新しいスマートネットワークインタフェースカード(NIC)を提案する。
提案するFPGAベースのAIスマートNICは,従来のNICを用いたベースラインシステムと比較して,6ノードで1.6倍,32ノードで2.5倍の性能向上が期待できる。
論文 参考訳(メタデータ) (2022-04-22T21:57:00Z) - Inference-optimized AI and high performance computing for gravitational
wave detection at scale [3.6118662460334527]
我々は、32ノードを用いたサミットスーパーコンピュータでトレーニングした重力波検出のための人工知能モデルのアンサンブルを導入する。
我々はArgonne Leadership Computer FacilityのThetaGPUスーパーコンピュータに推論最適化AIアンサンブルをデプロイする。
NVIDIARTに最適化されたAIアンサンブルは、50秒以内に、先進的なLIGOデータ(ハンフォードやリビングストンのデータストリームを含む)の1ヶ月を要した。
論文 参考訳(メタデータ) (2022-01-26T19:00:01Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - JUWELS Booster -- A Supercomputer for Large-Scale AI Research [79.02246047353273]
本稿では、最近J'ulich Supercomputing Centerに委託された高性能コンピューティングシステムであるJUWELS Boosterを紹介する。
システムアーキテクチャ、並列性、分散モデルトレーニング、その優れたパフォーマンスを示すベンチマークについて詳述する。
論文 参考訳(メタデータ) (2021-06-30T21:37:02Z) - KubeEdge.AI: AI Platform for Edge Devices [4.337396433660794]
KubeEdge.AIはKubeEdge上のエッジAIフレームワークである。
データ処理と処理エンジン、簡潔なAIランタイム、決定エンジン、分散データクエリインターフェースなど、主要なモジュールとインターフェースのセットを提供する。
論文 参考訳(メタデータ) (2020-07-07T23:36:23Z) - Optimizing Deep Learning Recommender Systems' Training On CPU Cluster
Architectures [56.69373580921888]
クラウドコンピューティングセンターのAIサイクルの大部分を占めるRecommender Systemsに注目します。
HPC用に調整された最新のCPUハードウェアとソフトウェア上で動作可能にすることで、パフォーマンスの2桁以上の改善を達成できます。
論文 参考訳(メタデータ) (2020-05-10T14:40:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。