論文の概要: Deploying Atmospheric and Oceanic AI Models on Chinese Hardware and Framework: Migration Strategies, Performance Optimization and Analysis
- arxiv url: http://arxiv.org/abs/2510.17852v1
- Date: Tue, 14 Oct 2025 02:41:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.145899
- Title: Deploying Atmospheric and Oceanic AI Models on Chinese Hardware and Framework: Migration Strategies, Performance Optimization and Analysis
- Title(参考訳): 中国のハードウェアとフレームワークに大気および海洋AIモデルをデプロイする - マイグレーション戦略、パフォーマンス最適化、分析
- Authors: Yuze Sun, Wentao Luo, Yanfei Xiang, Jiancheng Pan, Jiahao Li, Quan Zhang, Xiaomeng Huang,
- Abstract要約: 我々は,PyTorchからMindSporeへ大規模大気モデルと海洋モデルを移行し,中国のチップを最適化するためのフレームワークを提案する。
この研究は、大気および海洋AIモデル開発における中国の国内チップとフレームワークを活用するための貴重な洞察と実践的なガイダンスを提供する。
- 参考スコア(独自算出の注目度): 15.812482406734732
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the growing role of artificial intelligence in climate and weather research, efficient model training and inference are in high demand. Current models like FourCastNet and AI-GOMS depend heavily on GPUs, limiting hardware independence, especially for Chinese domestic hardware and frameworks. To address this issue, we present a framework for migrating large-scale atmospheric and oceanic models from PyTorch to MindSpore and optimizing for Chinese chips, and evaluating their performance against GPUs. The framework focuses on software-hardware adaptation, memory optimization, and parallelism. Furthermore, the model's performance is evaluated across multiple metrics, including training speed, inference speed, model accuracy, and energy efficiency, with comparisons against GPU-based implementations. Experimental results demonstrate that the migration and optimization process preserves the models' original accuracy while significantly reducing system dependencies and improving operational efficiency by leveraging Chinese chips as a viable alternative for scientific computing. This work provides valuable insights and practical guidance for leveraging Chinese domestic chips and frameworks in atmospheric and oceanic AI model development, offering a pathway toward greater technological independence.
- Abstract(参考訳): 気候・気象研究における人工知能の役割の増大に伴い、効率的なモデルトレーニングと推論が求められている。
FourCastNetやAI-GOMSといった現在のモデルはGPUに大きく依存しており、特に中国の国内ハードウェアやフレームワークにおいて、ハードウェアの独立性を制限している。
この問題に対処するため,PyTorchからMindSporeへの大規模大気モデルと海洋モデルへの移行,中国のチップの最適化,GPUの性能評価を行うフレームワークを提案する。
このフレームワークは、ソフトウェア・ハードウェア適応、メモリ最適化、並列性に焦点を当てている。
さらに、モデルのパフォーマンスは、トレーニング速度、推論速度、モデルの精度、エネルギー効率など、GPUベースの実装との比較など、複数のメトリクスで評価される。
実験結果から, マイグレーションと最適化のプロセスは, モデルの本来の精度を保ちながら, システム依存を著しく低減し, 中国チップを科学計算の代替手段として活用することにより, 運転効率の向上を図っている。
この研究は、大気および海洋AIモデル開発において中国の国内チップとフレームワークを活用するための貴重な洞察と実践的なガイダンスを提供し、より技術的な独立への道筋を提供する。
関連論文リスト
- A Survey on Inference Optimization Techniques for Mixture of Experts Models [50.40325411764262]
大規模Mixture of Experts(MoE)モデルは、条件計算によるモデル容量と計算効率の向上を提供する。
これらのモデル上で推論をデプロイし実行することは、計算資源、レイテンシ、エネルギー効率において大きな課題を示す。
本調査では,システムスタック全体にわたるMoEモデルの最適化手法について分析する。
論文 参考訳(メタデータ) (2024-12-18T14:11:15Z) - Numerical Pruning for Efficient Autoregressive Models [87.56342118369123]
本稿では,デコーダのみを用いた変圧器を用いた自己回帰モデルの圧縮に着目する。
具体的には,ニュートン法とモジュールの数値スコアをそれぞれ計算する学習自由プルーニング法を提案する。
提案手法の有効性を検証するため,理論的支援と広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-12-17T01:09:23Z) - Open-Source High-Speed Flight Surrogate Modeling Framework [0.0]
高速飛行車は音速よりもはるかに速く走行し、国防と宇宙探査に不可欠である。
様々な飛行条件下での行動の正確な予測は困難であり、しばしば高価である。
提案されたアプローチでは、より賢く、より効率的な機械学習モデルを作成する。
論文 参考訳(メタデータ) (2024-11-06T01:34:06Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Inference Optimization of Foundation Models on AI Accelerators [68.24450520773688]
トランスフォーマーアーキテクチャを備えた大規模言語モデル(LLM)を含む強力な基礎モデルは、ジェネレーティブAIの新たな時代を支えている。
モデルパラメータの数が数十億に達すると、実際のシナリオにおける推論コストと高いレイテンシーが排除される。
このチュートリアルでは、AIアクセラレータを用いた補完推論最適化テクニックに関する包括的な議論を行っている。
論文 参考訳(メタデータ) (2024-07-12T09:24:34Z) - Benchmarking Deep Learning Models on NVIDIA Jetson Nano for Real-Time Systems: An Empirical Investigation [2.3636539018632616]
この研究は、複雑なディープラーニングモデルの最適化を実証的に研究し、組み込みデバイス上で機能を分析する。
画像分類と映像行動検出のための推論速度の観点から最適化されたモデルの有効性を評価する。
論文 参考訳(メタデータ) (2024-06-25T17:34:52Z) - PerfRL: A Small Language Model Framework for Efficient Code Optimization [14.18092813639534]
本稿では,コード最適化の問題に対処する革新的なフレームワークPerfRLを紹介する。
我々のフレームワークは、小型言語モデル(SLM)と強化学習(RL)の機能を活用している。
提案手法は,より短いトレーニング時間とより小さな事前学習モデルを用いて,最先端モデルと比較して,類似あるいはより良い結果が得られる。
論文 参考訳(メタデータ) (2023-12-09T19:50:23Z) - Efficiency Pentathlon: A Standardized Arena for Efficiency Evaluation [82.85015548989223]
Pentathlonは、モデル効率の総合的で現実的な評価のためのベンチマークである。
Pentathlonは、モデルライフサイクルにおける計算の大部分を占める推論に焦点を当てている。
レイテンシ、スループット、メモリオーバーヘッド、エネルギー消費など、さまざまな効率面をターゲットにしたメトリクスが組み込まれている。
論文 参考訳(メタデータ) (2023-07-19T01:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。