論文の概要: Computing in the Era of Large Generative Models: From Cloud-Native to
AI-Native
- arxiv url: http://arxiv.org/abs/2401.12230v1
- Date: Wed, 17 Jan 2024 20:34:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-28 15:41:55.519282
- Title: Computing in the Era of Large Generative Models: From Cloud-Native to
AI-Native
- Title(参考訳): 大規模生成モデルの時代のコンピューティング: クラウドネイティブからaiネイティブへ
- Authors: Yao Lu, Song Bian, Lequn Chen, Yongjun He, Yulong Hui, Matthew Lentz,
Beibin Li, Fei Liu, Jialin Li, Qi Liu, Rui Liu, Xiaoxuan Liu, Lin Ma, Kexin
Rong, Jianguo Wang, Yingjun Wu, Yongji Wu, Huanchen Zhang, Minjia Zhang,
Qizhen Zhang, Tianyi Zhou, Danyang Zhuo
- Abstract要約: クラウドネイティブ技術と高度な機械学習推論の両方のパワーを利用するAIネイティブコンピューティングパラダイムについて説明する。
これらの共同作業は、コスト・オブ・グッド・ソード(COGS)を最適化し、資源のアクセシビリティを向上させることを目的としている。
- 参考スコア(独自算出の注目度): 46.7766555589807
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate the intersection of large generative AI models
and cloud-native computing architectures. Recent large models such as ChatGPT,
while revolutionary in their capabilities, face challenges like escalating
costs and demand for high-end GPUs. Drawing analogies between
large-model-as-a-service (LMaaS) and cloud database-as-a-service (DBaaS), we
describe an AI-native computing paradigm that harnesses the power of both
cloud-native technologies (e.g., multi-tenancy and serverless computing) and
advanced machine learning runtime (e.g., batched LoRA inference). These joint
efforts aim to optimize costs-of-goods-sold (COGS) and improve resource
accessibility. The journey of merging these two domains is just at the
beginning and we hope to stimulate future research and development in this
area.
- Abstract(参考訳): 本稿では,大規模生成型AIモデルとクラウドネイティブコンピューティングアーキテクチャの交わりについて検討する。
ChatGPTのような最近の大規模モデルは、その能力に革命的だが、コストのエスカレーションやハイエンドGPUの需要といった課題に直面している。
大規模モデル・アズ・ア・サービス(LMaaS)とクラウドデータベース・ア・ア・サービス(DBaaS)の類似性を引き合いに出し、クラウドネイティブなテクノロジ(マルチテナントやサーバレスコンピューティングなど)と高度な機械学習ランタイム(例えばバッチ化LoRA推論)の両方のパワーを活用するAIネイティブコンピューティングパラダイムについて説明する。
これらの共同作業は、コスト・オブ・グッド・ソード(COGS)を最適化し、資源のアクセシビリティを向上させることを目的としている。
この2つのドメインをマージする旅は始まりに過ぎず、この分野の今後の研究と開発を活性化したいと考えています。
関連論文リスト
- Two-Timescale Model Caching and Resource Allocation for Edge-Enabled AI-Generated Content Services [55.0337199834612]
Generative AI(GenAI)は、カスタマイズされたパーソナライズされたAI生成コンテンツ(AIGC)サービスを可能にするトランスフォーメーション技術として登場した。
これらのサービスは数十億のパラメータを持つGenAIモデルの実行を必要とし、リソース制限の無線エッジに重大な障害を生じさせる。
我々は、AIGC品質とレイテンシメトリクスのトレードオフをバランスさせるために、AIGCサービスのジョイントモデルキャッシングとリソースアロケーションの定式化を導入する。
論文 参考訳(メタデータ) (2024-11-03T07:01:13Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - SoTaNa: The Open-Source Software Development Assistant [81.86136560157266]
SoTaNaはオープンソースのソフトウェア開発アシスタントだ。
ソフトウェア工学の分野のための高品質な命令ベースのデータを生成する。
オープンソースの基盤モデルであるLLaMAを強化するためにパラメータ効率のよい微調整アプローチを採用している。
論文 参考訳(メタデータ) (2023-08-25T14:56:21Z) - An Overview on Generative AI at Scale with Edge-Cloud Computing [28.98486923400986]
生成人工知能(GenAI)は、人間が生成したものに似た新しいコンテンツを生成する。
GenAIシステムの急速な開発は、インターネット上で膨大な量の新しいデータを生み出している。
エッジクラウドコンピューティングのパラダイムを活用することで、GenAIシステムを大規模に構築することは魅力的なことです。
論文 参考訳(メタデータ) (2023-06-02T06:24:15Z) - Scalable, Distributed AI Frameworks: Leveraging Cloud Computing for
Enhanced Deep Learning Performance and Efficiency [0.0]
近年、人工知能(AI)とクラウドコンピューティングの統合は、AIアプリケーションの計算要求の増加に対処するための有望な道として現れている。
本稿では,クラウドコンピューティングを活用したスケーラブルな分散AIフレームワークの総合的研究を行い,ディープラーニングの性能向上と効率化について述べる。
論文 参考訳(メタデータ) (2023-04-26T15:38:00Z) - Molecular Dynamics Simulations on Cloud Computing and Machine Learning
Platforms [0.8093262393618671]
我々は、科学計算アプリケーションの計算構造、設計、要求のパラダイムシフトを見る。
データ駆動型と機械学習のアプローチは、科学計算アプリケーションをサポートし、スピードアップし、拡張するために使用されています。
クラウドコンピューティングプラットフォームは、科学コンピューティングにますますアピールしている。
論文 参考訳(メタデータ) (2021-11-11T21:20:26Z) - Edge-Cloud Polarization and Collaboration: A Comprehensive Survey [61.05059817550049]
クラウドとエッジ両方のAIの体系的なレビューを行います。
私たちはクラウドとエッジモデリングの協調学習メカニズムを最初にセットアップしました。
我々は現在進行中の最先端AIトピックの可能性と実践経験について議論する。
論文 参考訳(メタデータ) (2021-11-11T05:58:23Z) - Auto-Split: A General Framework of Collaborative Edge-Cloud AI [49.750972428032355]
本稿では,Huawei Cloudのエッジクラウド共同プロトタイプであるAuto-Splitの技法と技術実践について述べる。
私たちの知る限りでは、Deep Neural Network(DNN)分割機能を提供する既存の産業製品はありません。
論文 参考訳(メタデータ) (2021-08-30T08:03:29Z) - The MIT Supercloud Dataset [3.375826083518709]
我々は、大規模なHPCとデータセンター/クラウドオペレーションの分析において、革新的なAI/MLアプローチを促進することを目的とした、MIT Supercloudデータセットを紹介します。
我々は、ジョブ毎のCPUおよびGPU使用率、メモリ使用率、ファイルシステムログ、物理モニタリングデータを含む、MIT Supercloudシステムから詳細な監視ログを提供する。
本稿では,データセットの詳細,収集手法,データ可用性について論じ,このデータを用いて開発されている潜在的な課題について論じる。
論文 参考訳(メタデータ) (2021-08-04T13:06:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。