論文の概要: Supporting the development of Machine Learning for fundamental science in a federated Cloud with the AI_INFN platform
- arxiv url: http://arxiv.org/abs/2502.21266v1
- Date: Fri, 28 Feb 2025 17:42:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:40:35.556965
- Title: Supporting the development of Machine Learning for fundamental science in a federated Cloud with the AI_INFN platform
- Title(参考訳): AI_INFNプラットフォームによる連合クラウドにおける基礎科学のための機械学習の開発支援
- Authors: Lucio Anderlini, Matteo Barbetti, Giulio Bianchini, Diego Ciangottini, Stefano Dal Pra, Diego Michelotto, Carmelo Pellegrino, Rosa Petrini, Alessandro Pascolini, Daniele Spiga,
- Abstract要約: 機械学習(ML)は、科学者がデータ集約型ソフトウェアを設計、開発、デプロイする方法に革命をもたらしている。
MLの採用は、特に開発、テスト、運用のためのハードウェアアクセラレータへのアクセスのプロビジョニングとオーケストレーションに関して、コンピューティングインフラストラクチャに対する新たな課題を提示している。
INFNが出資するプロジェクトであるAI_INFN("Artificial Intelligence at INFN")は、AIネイティブコンピューティングリソースの提供を含む複数の側面のサポートを提供することで、INFNユースケースにおけるMLテクニックの採用を促進することを目的としている。
- 参考スコア(独自算出の注目度): 32.73124984242397
- License:
- Abstract: Machine Learning (ML) is driving a revolution in the way scientists design, develop, and deploy data-intensive software. However, the adoption of ML presents new challenges for the computing infrastructure, particularly in terms of provisioning and orchestrating access to hardware accelerators for development, testing, and production. The INFN-funded project AI_INFN ("Artificial Intelligence at INFN") aims at fostering the adoption of ML techniques within INFN use cases by providing support on multiple aspects, including the provision of AI-tailored computing resources. It leverages cloud-native solutions in the context of INFN Cloud, to share hardware accelerators as effectively as possible, ensuring the diversity of the Institute's research activities is not compromised. In this contribution, we provide an update on the commissioning of a Kubernetes platform designed to ease the development of GPU-powered data analysis workflows and their scalability on heterogeneous, distributed computing resources, possibly federated as Virtual Kubelets with the interLink provider.
- Abstract(参考訳): 機械学習(ML)は、科学者がデータ集約型ソフトウェアを設計、開発、デプロイする方法に革命をもたらしている。
しかし、MLの採用は、特に開発、テスト、生産のためのハードウェアアクセラレータへのアクセスのプロビジョニングとオーケストレーションに関して、コンピューティングインフラストラクチャに新たな課題をもたらす。
INFNが出資するプロジェクトであるAI_INFN("Artificial Intelligence at INFN")は、AIに適したコンピューティングリソースの提供を含む複数の側面のサポートを提供することで、INFNユースケースにおけるMLテクニックの採用を促進することを目的としている。
INFN Cloudのコンテキストでクラウドネイティブなソリューションを活用し、ハードウェアアクセラレータを可能な限り効率的に共有し、研究所の研究活動の多様性が損なわれないようにする。
このコントリビューションでは、GPUによるデータ分析ワークフローの開発と、多種多様な分散コンピューティングリソース上でのスケーラビリティを、InterLinkプロバイダに仮想KubeletsとしてフェデレーションしたKubernetesプラットフォームのアップデートを提供する。
関連論文リスト
- Transforming the Hybrid Cloud for Emerging AI Workloads [81.15269563290326]
このホワイトペーパーでは、AIワークロードの複雑さの増大に対応するために、ハイブリッドクラウドシステムを変革することを想定している。
提案したフレームワークは、エネルギー効率、性能、コスト効率において重要な課題に対処する。
この共同イニシアチブは、ハイブリッドクラウドをセキュアで効率的で持続可能なプラットフォームとして確立することを目的としています。
論文 参考訳(メタデータ) (2024-11-20T11:57:43Z) - Uncertainty Estimation in Multi-Agent Distributed Learning for AI-Enabled Edge Devices [0.0]
エッジIoTデバイスはFPGAとAIアクセラレータの導入によってパラダイムシフトを経験している。
この進歩は、エッジAIの実用性を強調し、その計算能力を大幅に増幅した。
本研究では,AI対応エッジデバイスによる分散データ処理を実現する手法について検討し,協調学習能力を向上する。
論文 参考訳(メタデータ) (2024-03-14T07:40:32Z) - Uncertainty Estimation in Multi-Agent Distributed Learning [0.0]
KDT NEUROKIT2Eプロジェクトは、エッジデバイス上のAIアプリケーションを容易にするための、新たなオープンソースフレームワークを確立することを目的としている。
本研究は,エッジネットワーク対応エージェントが分散環境における協調学習に携わることを可能にするメカニズムと方法論に焦点をあてる。
論文 参考訳(メタデータ) (2023-11-22T12:48:20Z) - Evaluating Emerging AI/ML Accelerators: IPU, RDU, and NVIDIA/AMD GPUs [14.397623940689487]
Graphcore Intelligence Processing Unit (IPU)、Sambanova Reconfigurable Dataflow Unit (RDU)、拡張GPUプラットフォームについてレビューする。
この研究は、これらの商用AI/MLアクセラレータの予備評価と比較を提供する。
論文 参考訳(メタデータ) (2023-11-08T01:06:25Z) - Federated Learning-Empowered AI-Generated Content in Wireless Networks [58.48381827268331]
フェデレートドラーニング(FL)は、学習効率を改善し、AIGCのプライバシー保護を達成するために利用することができる。
我々は,AIGCの強化を目的としたFLベースの技術を提案し,ユーザが多様でパーソナライズされた高品質なコンテンツを作成できるようにすることを目的とする。
論文 参考訳(メタデータ) (2023-07-14T04:13:11Z) - Distributed intelligence on the Edge-to-Cloud Continuum: A systematic
literature review [62.997667081978825]
このレビューは、現在利用可能な機械学習とデータ分析のための最先端ライブラリとフレームワークに関する包括的なビジョンを提供することを目的としている。
現在利用可能なEdge-to-Cloud Continuumに関する実験的な研究のための、主要なシミュレーション、エミュレーション、デプロイメントシステム、テストベッドも調査されている。
論文 参考訳(メタデータ) (2022-04-29T08:06:05Z) - Computational Intelligence and Deep Learning for Next-Generation
Edge-Enabled Industrial IoT [51.68933585002123]
エッジ対応産業用IoTネットワークにおける計算知能とディープラーニング(DL)の展開方法について検討する。
本稿では,新しいマルチエグジットベースフェデレーションエッジ学習(ME-FEEL)フレームワークを提案する。
特に、提案されたME-FEELは、非常に限られたリソースを持つ産業用IoTネットワークにおいて、最大32.7%の精度を達成することができる。
論文 参考訳(メタデータ) (2021-10-28T08:14:57Z) - Towards AIOps in Edge Computing Environments [60.27785717687999]
本稿では,異種分散環境に適用可能なaiopsプラットフォームのシステム設計について述べる。
高頻度でメトリクスを収集し、エッジデバイス上で特定の異常検出アルゴリズムを直接実行することが可能である。
論文 参考訳(メタデータ) (2021-02-12T09:33:00Z) - Reliable Fleet Analytics for Edge IoT Solutions [0.0]
AIoTアプリケーションのエッジで機械学習を容易にするためのフレームワークを提案する。
コントリビューションは、大規模にフリート分析を提供するためのサービス、ツール、メソッドを含むアーキテクチャである。
本稿では,大学キャンパスの部屋でiotデバイスを用いた実験を行うことで,フレームワークの予備検証を行う。
論文 参考訳(メタデータ) (2021-01-12T11:28:43Z) - Reconfigurable Intelligent Surface Assisted Mobile Edge Computing with
Heterogeneous Learning Tasks [53.1636151439562]
モバイルエッジコンピューティング(MEC)は、AIアプリケーションに自然なプラットフォームを提供します。
再構成可能なインテリジェントサーフェス(RIS)の助けを借りて、MECで機械学習タスクを実行するインフラストラクチャを提示します。
具体的には,モバイルユーザの送信パワー,基地局のビームフォーミングベクトル,risの位相シフト行列を共同で最適化することにより,参加ユーザの学習誤差を最小化する。
論文 参考訳(メタデータ) (2020-12-25T07:08:50Z) - Convergence of Artificial Intelligence and High Performance Computing on
NSF-supported Cyberinfrastructure [3.4291439418246177]
人工知能(AI)アプリケーションは、産業や技術におけるビッグデータの課題に対して、トランスフォーメーションソリューションを推進している。
AIは、統計的および数学的厳密性を備えたコンピューティングパラダイムへと進化し続けており、トレーニング、検証、テストのためのシングルGPUソリューションがもはや不十分であることが明らかになっている。
この実現により、AIとハイパフォーマンスコンピューティングの融合が加速し、監視時間の短縮が図られている。
論文 参考訳(メタデータ) (2020-03-18T18:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。