論文の概要: The AI_INFN Platform: Artificial Intelligence Development in the Cloud
- arxiv url: http://arxiv.org/abs/2509.22117v1
- Date: Fri, 26 Sep 2025 09:40:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.340163
- Title: The AI_INFN Platform: Artificial Intelligence Development in the Cloud
- Title(参考訳): AI_INFNプラットフォーム:クラウドにおける人工知能開発
- Authors: Lucio Anderlini, Giulio Bianchini, Diego Ciangottini, Stefano Dal Pra, Diego Michelotto, Rosa Petrini, Daniele Spiga,
- Abstract要約: AI_INFNは、INFNユースケースにおける機械学習技術の採用を促進することを目的としている。
我々はGPUによるデータ分析プラットフォームのコミッタリングについて更新する。
このセットアップは、異なるリソースプロバイダ間でLHCを管理することができる。
最初のテスト結果、新しいケーススタディ、統合シナリオが提示されます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning (ML) is driving a revolution in the way scientists design, develop, and deploy data-intensive software. However, the adoption of ML presents new challenges for the computing infrastructure, particularly in terms of provisioning and orchestrating access to hardware accelerators for development, testing, and production. The INFN-funded project AI_INFN (Artificial Intelligence at INFN) aims at fostering the adoption of ML techniques within INFN use cases by providing support on multiple aspects, including the provisioning of AI-tailored computing resources. It leverages cloud-native solutions in the context of INFN Cloud, to share hardware accelerators as effectively as possible, ensuring the diversity of the Institute's research activities is not compromised. In this contribution, we provide an update on the commissioning of a Kubernetes platform designed to ease the development of GPU-powered data analysis workflows and their scalability on heterogeneous distributed computing resources, also using the offloading mechanism with Virtual Kubelet and InterLink API. This setup can manage workflows across different resource providers, including sites of the Worldwide LHC Computing Grid and supercomputers such as CINECA Leonardo, providing a model for use cases requiring dedicated infrastructures for different parts of the workload. Initial test results, emerging case studies, and integration scenarios will be presented with functional tests and benchmarks.
- Abstract(参考訳): 機械学習(ML)は、科学者がデータ集約型ソフトウェアを設計、開発、デプロイする方法に革命をもたらしている。
しかし、MLの採用は、特に開発、テスト、生産のためのハードウェアアクセラレータへのアクセスのプロビジョニングとオーケストレーションという面で、コンピューティングインフラストラクチャに新たな課題をもたらす。
INFNが出資するプロジェクトであるAI_INFN(Artificial Intelligence at INFN)は、AIに適したコンピューティングリソースのプロビジョニングを含む複数の側面のサポートを提供することで、INFNユースケースにおけるMLテクニックの採用を促進することを目的としている。
INFN Cloudのコンテキストでクラウドネイティブなソリューションを活用し、ハードウェアアクセラレータを可能な限り効率的に共有し、研究所の研究活動の多様性が損なわれないようにする。
このコントリビューションでは、GPUによるデータ分析ワークフローの開発と、異種分散コンピューティングリソースのスケーラビリティの向上を容易にするために設計されたKubernetesプラットフォームを、Virtual KubeletとInterLink APIを使用したオフロード機構を使用して、Kubernetesプラットフォームにアップデートする。
このセットアップは、Worldwide LHC Computing GridのサイトやCINECA Leonardoなどのスーパーコンピュータなど、さまざまなリソースプロバイダ間でワークフローを管理することができ、ワークロードのさまざまな部分に専用のインフラストラクチャを必要とするユースケースのモデルを提供する。
最初のテスト結果、新しいケーススタディ、統合シナリオは機能テストとベンチマークで示されます。
関連論文リスト
- A Survey on Cloud-Edge-Terminal Collaborative Intelligence in AIoT Networks [49.90474228895655]
クラウドエッジ端末協調インテリジェンス(CETCI)は、モノの人工知能(AIoT)コミュニティにおける基本的なパラダイムである。
CETCIは、分離されたレイヤ最適化からデプロイ可能なコラボレーティブインテリジェンスシステムに移行する、新興のAIoTアプリケーションで大きな進歩を遂げた。
本調査では、基礎アーキテクチャ、CETCIパラダイムのテクノロジの実現、シナリオについて解説し、CISAIOT初心者向けのチュートリアルスタイルのレビューを提供する。
論文 参考訳(メタデータ) (2025-08-26T08:38:01Z) - Edge-Cloud Collaborative Computing on Distributed Intelligence and Model Optimization: A Survey [58.50944604905037]
エッジクラウドコラボレーティブコンピューティング(ECCC)は、現代のインテリジェントアプリケーションの計算要求に対処するための重要なパラダイムとして登場した。
AIの最近の進歩、特にディープラーニングと大規模言語モデル(LLM)は、これらの分散システムの能力を劇的に向上させてきた。
この調査は、基本的なアーキテクチャ、技術の実現、新しいアプリケーションに関する構造化されたチュートリアルを提供する。
論文 参考訳(メタデータ) (2025-05-03T13:55:38Z) - Supporting the development of Machine Learning for fundamental science in a federated Cloud with the AI_INFN platform [32.73124984242397]
機械学習(ML)は、科学者がデータ集約型ソフトウェアを設計、開発、デプロイする方法に革命をもたらしている。
MLの採用は、特に開発、テスト、運用のためのハードウェアアクセラレータへのアクセスのプロビジョニングとオーケストレーションに関して、コンピューティングインフラストラクチャに対する新たな課題を提示している。
INFNが出資するプロジェクトであるAI_INFN("Artificial Intelligence at INFN")は、AIネイティブコンピューティングリソースの提供を含む複数の側面のサポートを提供することで、INFNユースケースにおけるMLテクニックの採用を促進することを目的としている。
論文 参考訳(メタデータ) (2025-02-28T17:42:58Z) - Distributed intelligence on the Edge-to-Cloud Continuum: A systematic
literature review [62.997667081978825]
このレビューは、現在利用可能な機械学習とデータ分析のための最先端ライブラリとフレームワークに関する包括的なビジョンを提供することを目的としている。
現在利用可能なEdge-to-Cloud Continuumに関する実験的な研究のための、主要なシミュレーション、エミュレーション、デプロイメントシステム、テストベッドも調査されている。
論文 参考訳(メタデータ) (2022-04-29T08:06:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。