論文の概要: The AI_INFN Platform: Artificial Intelligence Development in the Cloud
- arxiv url: http://arxiv.org/abs/2509.22117v2
- Date: Wed, 29 Oct 2025 14:33:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 18:06:01.916017
- Title: The AI_INFN Platform: Artificial Intelligence Development in the Cloud
- Title(参考訳): AI_INFNプラットフォーム:クラウドにおける人工知能開発
- Authors: Lucio Anderlini, Giulio Bianchini, Diego Ciangottini, Stefano Dal Pra, Diego Michelotto, Rosa Petrini, Daniele Spiga,
- Abstract要約: INFNイニシアチブであるAI_INFN(Artificial Intelligence at INFN)は、さまざまなINFN研究シナリオでMLメソッドの使用を促進することを目指している。
性能と統合結果の両方を実証し、予備ベンチマーク、機能テスト、ケーススタディを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning (ML) is profoundly reshaping the way researchers create, implement, and operate data-intensive software. Its adoption, however, introduces notable challenges for computing infrastructures, particularly when it comes to coordinating access to hardware accelerators across development, testing, and production environments. The INFN initiative AI_INFN (Artificial Intelligence at INFN) seeks to promote the use of ML methods across various INFN research scenarios by offering comprehensive technical support, including access to AI-focused computational resources. Leveraging the INFN Cloud ecosystem and cloud-native technologies, the project emphasizes efficient sharing of accelerator hardware while maintaining the breadth of the Institute's research activities. This contribution describes the deployment and commissioning of a Kubernetes-based platform designed to simplify GPU-powered data analysis workflows and enable their scalable execution on heterogeneous distributed resources. By integrating offloading mechanisms through Virtual Kubelet and the InterLink API, the platform allows workflows to span multiple resource providers, from Worldwide LHC Computing Grid sites to high-performance computing centers like CINECA Leonardo. We will present preliminary benchmarks, functional tests, and case studies, demonstrating both performance and integration outcomes.
- Abstract(参考訳): 機械学習(ML)は、研究者がデータ集約型ソフトウェアを作成し、実装し、運用する方法を根本的に変えている。
しかし、その採用は、特に開発、テスト、プロダクション環境全体にわたるハードウェアアクセラレーターへのアクセスをコーディネートする上で、コンピューティングインフラストラクチャーに顕著な課題をもたらす。
INFNイニシアチブであるAI_INFN(Artificial Intelligence at INFN)は、AI中心の計算リソースへのアクセスを含む包括的な技術サポートを提供することで、さまざまなINFN研究シナリオにおけるMLメソッドの使用を促進することを目指している。
INFN Cloudエコシステムとクラウドネイティブ技術を活用することで、このプロジェクトはアクセラレータハードウェアの効率的な共有と、研究所の研究活動の幅の維持を強調している。
このコントリビューションでは、GPUによるデータ分析ワークフローを簡素化し、異種分散リソース上でのスケーラブルな実行を可能にするために設計された、Kubernetesベースのプラットフォームのデプロイメントとコミッションについて説明している。
Virtual KubeletとInterLink APIを通じてオフロードメカニズムを統合することで、このプラットフォームは、世界規模のLHCコンピューティンググリッドサイトから、CINECA Leonardoのような高性能コンピューティングセンターまで、複数のリソースプロバイダにまたがるワークフローを可能にする。
性能と統合結果の両方を実証し、予備ベンチマーク、機能テスト、ケーススタディを示す。
関連論文リスト
- High-Performance Serverless Computing: A Systematic Literature Review on Serverless for HPC, AI, and Big Data [0.8199696350352799]
本稿は,2018年から2025年にかけて発行された122の論文について,系統的な文献レビューを行う。
サーバレスパラダイムを使用して、クラウド、ハイパフォーマンスコンピューティング、ハイブリッド環境にわたる計算集約型アプリケーションの開発とデプロイ、オーケストレーションを行う。
論文 参考訳(メタデータ) (2026-01-14T10:10:20Z) - A Survey on Cloud-Edge-Terminal Collaborative Intelligence in AIoT Networks [49.90474228895655]
クラウドエッジ端末協調インテリジェンス(CETCI)は、モノの人工知能(AIoT)コミュニティにおける基本的なパラダイムである。
CETCIは、分離されたレイヤ最適化からデプロイ可能なコラボレーティブインテリジェンスシステムに移行する、新興のAIoTアプリケーションで大きな進歩を遂げた。
本調査では、基礎アーキテクチャ、CETCIパラダイムのテクノロジの実現、シナリオについて解説し、CISAIOT初心者向けのチュートリアルスタイルのレビューを提供する。
論文 参考訳(メタデータ) (2025-08-26T08:38:01Z) - Edge-Cloud Collaborative Computing on Distributed Intelligence and Model Optimization: A Survey [58.50944604905037]
エッジクラウドコラボレーティブコンピューティング(ECCC)は、現代のインテリジェントアプリケーションの計算要求に対処するための重要なパラダイムとして登場した。
AIの最近の進歩、特にディープラーニングと大規模言語モデル(LLM)は、これらの分散システムの能力を劇的に向上させてきた。
この調査は、基本的なアーキテクチャ、技術の実現、新しいアプリケーションに関する構造化されたチュートリアルを提供する。
論文 参考訳(メタデータ) (2025-05-03T13:55:38Z) - Supporting the development of Machine Learning for fundamental science in a federated Cloud with the AI_INFN platform [32.73124984242397]
機械学習(ML)は、科学者がデータ集約型ソフトウェアを設計、開発、デプロイする方法に革命をもたらしている。
MLの採用は、特に開発、テスト、運用のためのハードウェアアクセラレータへのアクセスのプロビジョニングとオーケストレーションに関して、コンピューティングインフラストラクチャに対する新たな課題を提示している。
INFNが出資するプロジェクトであるAI_INFN("Artificial Intelligence at INFN")は、AIネイティブコンピューティングリソースの提供を含む複数の側面のサポートを提供することで、INFNユースケースにおけるMLテクニックの採用を促進することを目的としている。
論文 参考訳(メタデータ) (2025-02-28T17:42:58Z) - Transforming the Hybrid Cloud for Emerging AI Workloads [82.21522417363666]
このホワイトペーパーでは、AIワークロードの複雑さの増大に対応するために、ハイブリッドクラウドシステムを変革することを想定している。
提案したフレームワークは、エネルギー効率、性能、コスト効率において重要な課題に対処する。
この共同イニシアチブは、ハイブリッドクラウドをセキュアで効率的で持続可能なプラットフォームとして確立することを目的としています。
論文 参考訳(メタデータ) (2024-11-20T11:57:43Z) - Uncertainty Estimation in Multi-Agent Distributed Learning for AI-Enabled Edge Devices [0.0]
エッジIoTデバイスはFPGAとAIアクセラレータの導入によってパラダイムシフトを経験している。
この進歩は、エッジAIの実用性を強調し、その計算能力を大幅に増幅した。
本研究では,AI対応エッジデバイスによる分散データ処理を実現する手法について検討し,協調学習能力を向上する。
論文 参考訳(メタデータ) (2024-03-14T07:40:32Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Distributed intelligence on the Edge-to-Cloud Continuum: A systematic
literature review [62.997667081978825]
このレビューは、現在利用可能な機械学習とデータ分析のための最先端ライブラリとフレームワークに関する包括的なビジョンを提供することを目的としている。
現在利用可能なEdge-to-Cloud Continuumに関する実験的な研究のための、主要なシミュレーション、エミュレーション、デプロイメントシステム、テストベッドも調査されている。
論文 参考訳(メタデータ) (2022-04-29T08:06:05Z) - The MIT Supercloud Workload Classification Challenge [10.458111248130944]
本稿では,MIT Supercloudデータセットに基づくワークロード分類の課題について述べる。
この課題の目標は、計算ワークロードの分析におけるアルゴリズムのイノベーションを促進することである。
論文 参考訳(メタデータ) (2022-04-12T14:28:04Z) - Towards AIOps in Edge Computing Environments [60.27785717687999]
本稿では,異種分散環境に適用可能なaiopsプラットフォームのシステム設計について述べる。
高頻度でメトリクスを収集し、エッジデバイス上で特定の異常検出アルゴリズムを直接実行することが可能である。
論文 参考訳(メタデータ) (2021-02-12T09:33:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。