論文の概要: Smaller, Smarter, Closer: The Edge of Collaborative Generative AI
- arxiv url: http://arxiv.org/abs/2505.16499v1
- Date: Thu, 22 May 2025 10:34:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.22812
- Title: Smaller, Smarter, Closer: The Edge of Collaborative Generative AI
- Title(参考訳): より小さく、より賢く、より近く:コラボレーションによる生成AIの最先端
- Authors: Roberto Morabito, SiYoung Jang,
- Abstract要約: GenAIは、レイテンシ、コスト、プライバシに関する懸念など、クラウド中心のデプロイメントにおける重要な制限を公開している。
この記事では、エッジリソースとクラウドリソースの両方を活用してこれらの課題に対処する、協調推論システムの可能性について説明する。
- 参考スコア(独自算出の注目度): 0.7980273012483663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid adoption of generative AI (GenAI), particularly Large Language Models (LLMs), has exposed critical limitations of cloud-centric deployments, including latency, cost, and privacy concerns. Meanwhile, Small Language Models (SLMs) are emerging as viable alternatives for resource-constrained edge environments, though they often lack the capabilities of their larger counterparts. This article explores the potential of collaborative inference systems that leverage both edge and cloud resources to address these challenges. By presenting distinct cooperation strategies alongside practical design principles and experimental insights, we offer actionable guidance for deploying GenAI across the computing continuum.
- Abstract(参考訳): 生成AI(GenAI)、特にLarge Language Models(LLM)の急速な採用により、レイテンシ、コスト、プライバシといったクラウド中心のデプロイメントに対する重要な制限が明らかになった。
一方、Small Language Models (SLM) はリソース制約のあるエッジ環境の代替として実現可能なものとして登場している。
この記事では、エッジリソースとクラウドリソースの両方を活用してこれらの課題に対処する、協調推論システムの可能性について説明する。
実用設計の原則と実験的な洞察とともに、異なる協力戦略を提示することにより、我々は、GenAIをコンピュータ連続体に展開するための実用的なガイダンスを提供する。
関連論文リスト
- A Survey on Collaborative Mechanisms Between Large and Small Language Models [5.1159419867547085]
大規模言語モデル(LLM)は強力なAI機能を提供するが、高いリソースコストとレイテンシのためにデプロイメントの課題に直面している。
小型言語モデル(SLM)は、性能の低下を犠牲にして効率性とデプロイ性を提供する。
論文 参考訳(メタデータ) (2025-05-12T11:48:42Z) - Federated Intelligence: When Large AI Models Meet Federated Fine-Tuning and Collaborative Reasoning at the Network Edge [10.848407787567519]
大規模人工知能(AI)モデルは、様々なアプリケーションシナリオにおいて顕著な能力を示す。
ネットワークエッジにデプロイすることは、データプライバシや計算リソース、レイテンシといった問題によって、重大な問題を引き起こす。
本稿では,資源制約のある無線ネットワークにおける大規模AIモデルの実装を容易にするための,ファインチューニングと協調推論技術について検討する。
論文 参考訳(メタデータ) (2025-03-27T11:56:36Z) - AI Flow at the Network Edge [58.31090055138711]
AI Flowは、デバイス、エッジノード、クラウドサーバ間で利用可能な異種リソースを共同で活用することで、推論プロセスを合理化するフレームワークである。
この記事では、AI Flowのモチベーション、課題、原則を特定するためのポジションペーパーとして機能する。
論文 参考訳(メタデータ) (2024-11-19T12:51:17Z) - Uncertainty Estimation in Multi-Agent Distributed Learning for AI-Enabled Edge Devices [0.0]
エッジIoTデバイスはFPGAとAIアクセラレータの導入によってパラダイムシフトを経験している。
この進歩は、エッジAIの実用性を強調し、その計算能力を大幅に増幅した。
本研究では,AI対応エッジデバイスによる分散データ処理を実現する手法について検討し,協調学習能力を向上する。
論文 参考訳(メタデータ) (2024-03-14T07:40:32Z) - On the Challenges and Opportunities in Generative AI [157.96723998647363]
私たちは、現在の大規模な生成AIモデルは、ドメイン間で広く採用されるのを妨げるいくつかの根本的な欠点を示しています。
我々は、研究者に実りある研究の方向性を探るための洞察を提供することを目標とし、より堅牢でアクセスしやすい生成AIソリューションの開発を促進する。
論文 参考訳(メタデータ) (2024-02-28T15:19:33Z) - From Cloud to Edge: Rethinking Generative AI for Low-Resource Design
Challenges [7.1341189275030645]
私たちは、エッジで設計するための生成AIの可能性、課題、そして有望なアプローチを検討します。
目的は、設計問題に対する目覚ましいソリューションを作成する際に、生成AIのパワーを活用することである。
論文 参考訳(メタデータ) (2024-02-20T03:59:27Z) - Edge-Cloud Polarization and Collaboration: A Comprehensive Survey [61.05059817550049]
クラウドとエッジ両方のAIの体系的なレビューを行います。
私たちはクラウドとエッジモデリングの協調学習メカニズムを最初にセットアップしました。
我々は現在進行中の最先端AIトピックの可能性と実践経験について議論する。
論文 参考訳(メタデータ) (2021-11-11T05:58:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。