論文の概要: Computing in the Era of Large Generative Models: From Cloud-Native to
AI-Native
- arxiv url: http://arxiv.org/abs/2401.12230v1
- Date: Wed, 17 Jan 2024 20:34:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-28 15:41:55.519282
- Title: Computing in the Era of Large Generative Models: From Cloud-Native to
AI-Native
- Title(参考訳): 大規模生成モデルの時代のコンピューティング: クラウドネイティブからaiネイティブへ
- Authors: Yao Lu, Song Bian, Lequn Chen, Yongjun He, Yulong Hui, Matthew Lentz,
Beibin Li, Fei Liu, Jialin Li, Qi Liu, Rui Liu, Xiaoxuan Liu, Lin Ma, Kexin
Rong, Jianguo Wang, Yingjun Wu, Yongji Wu, Huanchen Zhang, Minjia Zhang,
Qizhen Zhang, Tianyi Zhou, Danyang Zhuo
- Abstract要約: クラウドネイティブ技術と高度な機械学習推論の両方のパワーを利用するAIネイティブコンピューティングパラダイムについて説明する。
これらの共同作業は、コスト・オブ・グッド・ソード(COGS)を最適化し、資源のアクセシビリティを向上させることを目的としている。
- 参考スコア(独自算出の注目度): 46.7766555589807
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate the intersection of large generative AI models
and cloud-native computing architectures. Recent large models such as ChatGPT,
while revolutionary in their capabilities, face challenges like escalating
costs and demand for high-end GPUs. Drawing analogies between
large-model-as-a-service (LMaaS) and cloud database-as-a-service (DBaaS), we
describe an AI-native computing paradigm that harnesses the power of both
cloud-native technologies (e.g., multi-tenancy and serverless computing) and
advanced machine learning runtime (e.g., batched LoRA inference). These joint
efforts aim to optimize costs-of-goods-sold (COGS) and improve resource
accessibility. The journey of merging these two domains is just at the
beginning and we hope to stimulate future research and development in this
area.
- Abstract(参考訳): 本稿では,大規模生成型AIモデルとクラウドネイティブコンピューティングアーキテクチャの交わりについて検討する。
ChatGPTのような最近の大規模モデルは、その能力に革命的だが、コストのエスカレーションやハイエンドGPUの需要といった課題に直面している。
大規模モデル・アズ・ア・サービス(LMaaS)とクラウドデータベース・ア・ア・サービス(DBaaS)の類似性を引き合いに出し、クラウドネイティブなテクノロジ(マルチテナントやサーバレスコンピューティングなど)と高度な機械学習ランタイム(例えばバッチ化LoRA推論)の両方のパワーを活用するAIネイティブコンピューティングパラダイムについて説明する。
これらの共同作業は、コスト・オブ・グッド・ソード(COGS)を最適化し、資源のアクセシビリティを向上させることを目的としている。
この2つのドメインをマージする旅は始まりに過ぎず、この分野の今後の研究と開発を活性化したいと考えています。
関連論文リスト
- Cloud Platforms for Developing Generative AI Solutions: A Scoping Review of Tools and Services [0.27649989102029926]
Generative AIは、機械がコンテンツ、コード、デザインを作成できるようにすることで、エンタープライズアプリケーション開発を変革している。
クラウドコンピューティングは、生成AIモデルをトレーニング、デプロイ、スケールするためのインフラストラクチャを提供することによって、これらのニーズに対処する。
このレビューでは、生成AIのためのクラウドサービスを調べ、Amazon Web Services(AWS)、Microsoft Azure、Google Cloud、IBM Cloud、Oracle Cloud、Alibaba Cloudといった主要なプロバイダに焦点を当てている。
論文 参考訳(メタデータ) (2024-12-08T19:49:07Z) - Seamless Optical Cloud Computing across Edge-Metro Network for Generative AI [11.50609298355243]
本稿では,エッジ-メトロネットワーク上でシームレスにデプロイ可能な光クラウドコンピューティングシステムを提案する。
入力とモデルを光に変調することで、エッジ-メトロネットワークを介して、幅広いエッジノードが光コンピューティングセンターに直接アクセスすることができる。
実験による検証では、118.6 mW/TOP(テラ演算毎秒)のエネルギー効率を示し、従来の電子ベースのクラウドコンピューティングソリューションと比較して2桁のエネルギー消費を削減した。
論文 参考訳(メタデータ) (2024-12-04T11:49:13Z) - Two-Timescale Model Caching and Resource Allocation for Edge-Enabled AI-Generated Content Services [55.0337199834612]
Generative AI(GenAI)は、カスタマイズされたパーソナライズされたAI生成コンテンツ(AIGC)サービスを可能にするトランスフォーメーション技術として登場した。
これらのサービスは数十億のパラメータを持つGenAIモデルの実行を必要とし、リソース制限の無線エッジに重大な障害を生じさせる。
我々は、AIGC品質とレイテンシメトリクスのトレードオフをバランスさせるために、AIGCサービスのジョイントモデルキャッシングとリソースアロケーションの定式化を導入する。
論文 参考訳(メタデータ) (2024-11-03T07:01:13Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - SoTaNa: The Open-Source Software Development Assistant [81.86136560157266]
SoTaNaはオープンソースのソフトウェア開発アシスタントだ。
ソフトウェア工学の分野のための高品質な命令ベースのデータを生成する。
オープンソースの基盤モデルであるLLaMAを強化するためにパラメータ効率のよい微調整アプローチを採用している。
論文 参考訳(メタデータ) (2023-08-25T14:56:21Z) - An Overview on Generative AI at Scale with Edge-Cloud Computing [28.98486923400986]
生成人工知能(GenAI)は、人間が生成したものに似た新しいコンテンツを生成する。
GenAIシステムの急速な開発は、インターネット上で膨大な量の新しいデータを生み出している。
エッジクラウドコンピューティングのパラダイムを活用することで、GenAIシステムを大規模に構築することは魅力的なことです。
論文 参考訳(メタデータ) (2023-06-02T06:24:15Z) - Scalable, Distributed AI Frameworks: Leveraging Cloud Computing for
Enhanced Deep Learning Performance and Efficiency [0.0]
近年、人工知能(AI)とクラウドコンピューティングの統合は、AIアプリケーションの計算要求の増加に対処するための有望な道として現れている。
本稿では,クラウドコンピューティングを活用したスケーラブルな分散AIフレームワークの総合的研究を行い,ディープラーニングの性能向上と効率化について述べる。
論文 参考訳(メタデータ) (2023-04-26T15:38:00Z) - Edge-Cloud Polarization and Collaboration: A Comprehensive Survey [61.05059817550049]
クラウドとエッジ両方のAIの体系的なレビューを行います。
私たちはクラウドとエッジモデリングの協調学習メカニズムを最初にセットアップしました。
我々は現在進行中の最先端AIトピックの可能性と実践経験について議論する。
論文 参考訳(メタデータ) (2021-11-11T05:58:23Z) - Auto-Split: A General Framework of Collaborative Edge-Cloud AI [49.750972428032355]
本稿では,Huawei Cloudのエッジクラウド共同プロトタイプであるAuto-Splitの技法と技術実践について述べる。
私たちの知る限りでは、Deep Neural Network(DNN)分割機能を提供する既存の産業製品はありません。
論文 参考訳(メタデータ) (2021-08-30T08:03:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。