論文の概要: EPIC: Generative AI Platform for Accelerating HPC Operational Data Analytics
- arxiv url: http://arxiv.org/abs/2509.16212v1
- Date: Fri, 29 Aug 2025 15:55:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-28 15:30:14.328291
- Title: EPIC: Generative AI Platform for Accelerating HPC Operational Data Analytics
- Title(参考訳): EPIC: HPC運用データ分析を高速化する生成AIプラットフォーム
- Authors: Ahmad Maroof Karimi, Woong Shin, Jesse Hines, Tirthankar Ghosal, Naw Safrin Sattar, Feiyi Wang,
- Abstract要約: EPICは、運用データ分析を強化するために設計された、AI駆動のプラットフォームである。
階層的なマルチエージェントアーキテクチャを採用しており、トップレベルの大規模言語モデルがクエリ処理、推論、合成機能を提供する。
情報検索、記述分析、予測分析の3つの専門的な低レベルエージェントを編成する。
- 参考スコア(独自算出の注目度): 3.6462220158488985
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present EPIC, an AI-driven platform designed to augment operational data analytics. EPIC employs a hierarchical multi-agent architecture where a top-level large language model provides query processing, reasoning and synthesis capabilities. These capabilities orchestrate three specialized low-level agents for information retrieval, descriptive analytics, and predictive analytics. This architecture enables EPIC to perform HPC operational analytics on multi-modal data, including text, images, and tabular formats, dynamically and iteratively. EPIC addresses the limitations of existing HPC operational analytics approaches, which rely on static methods that struggle to adapt to evolving analytics tasks and stakeholder demands. Through extensive evaluations on the Frontier HPC system, we demonstrate that EPIC effectively handles complex queries. Using descriptive analytics as a use case, fine-tuned smaller models outperform large state-of-the-art foundation models, achieving up to 26% higher accuracy. Additionally, we achieved 19x savings in LLM operational costs compared to proprietary solutions by employing a hybrid approach that combines large foundational models with fine-tuned local open-weight models.
- Abstract(参考訳): 運用データ分析を強化するために設計された,AI駆動型プラットフォームであるEPICを紹介する。
EPICは階層的なマルチエージェントアーキテクチャを採用しており、トップレベルの大規模言語モデルはクエリ処理、推論、合成機能を提供する。
これらの機能は、情報検索、記述分析、予測分析のための3つの特殊な低レベルエージェントを編成する。
このアーキテクチャにより、EPICはテキスト、画像、表形式を含むマルチモーダルデータ上で動的かつ反復的にHPC操作分析を行うことができる。
EPICは、進化する分析タスクやステークホルダーの要求に適応するのに苦労する静的メソッドに依存する、既存のHPC運用分析アプローチの制限に対処する。
Frontier HPCシステム上での広範な評価を通じて,EPICが複雑なクエリを効果的に処理できることを実証する。
ユースケースとして記述分析を使用することで、微調整された小さなモデルは、最先端の基盤モデルよりも優れ、精度は最大26%向上する。
さらに,大規模な基礎モデルと微調整された局所的オープンウェイトモデルを組み合わせたハイブリッドアプローチを用いて,LLMの運用コストをプロプライエタリなソリューションと比較して19倍の削減を実現した。
関連論文リスト
- Leveraging Generative Models for Real-Time Query-Driven Text Summarization in Large-Scale Web Search [54.987957691350665]
クエリ駆動テキスト要約(QDTS)は、与えられたクエリに基づいてテキスト文書から簡潔で情報的な要約を生成することを目的としている。
従来の抽出的要約モデルは、主にランク付け候補の要約セグメントに基づいており、産業応用において支配的なアプローチとなっている。
産業Web検索におけるリアルタイムQDTSに対処するための生成モデルの適用を開拓するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-28T08:51:51Z) - Deep Research Agents: A Systematic Examination And Roadmap [109.53237992384872]
Deep Research (DR) エージェントは複雑な多ターン情報研究タスクに取り組むように設計されている。
本稿では,DRエージェントを構成する基礎技術とアーキテクチャコンポーネントの詳細な分析を行う。
論文 参考訳(メタデータ) (2025-06-22T16:52:48Z) - ARTEMIS-DA: An Advanced Reasoning and Transformation Engine for Multi-Step Insight Synthesis in Data Analytics [0.0]
ARTEMIS-DAは、複雑で多段階のデータ分析タスクを解決するために、大規模言語モデルを拡張するために設計されたフレームワークである。
ARTEMIS-DAはPlanner、Coder、Grapherという3つのコアコンポーネントを統合している。
このフレームワークはWikiTableQuestionsやTabFactといったベンチマーク上でのSOTA(State-of-the-art)のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-12-18T18:44:08Z) - A Survey on Inference Optimization Techniques for Mixture of Experts Models [50.40325411764262]
大規模Mixture of Experts(MoE)モデルは、条件計算によるモデル容量と計算効率の向上を提供する。
これらのモデル上で推論をデプロイし実行することは、計算資源、レイテンシ、エネルギー効率において大きな課題を示す。
本調査では,システムスタック全体にわたるMoEモデルの最適化手法について分析する。
論文 参考訳(メタデータ) (2024-12-18T14:11:15Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - An Interpretable Ensemble of Graph and Language Models for Improving
Search Relevance in E-Commerce [22.449320058423886]
プラグアンドプレイグラフLanguage Model (PP-GLAM) を提案する。
このアプローチでは、均一なデータ処理パイプラインを備えたモジュラーフレームワークを使用します。
PP-GLAMは,実世界のマルチリンガル,マルチリージョンのeコマースデータセット上で,最先端のベースラインとプロプライエタリなモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-01T19:08:25Z) - Analytical Engines With Context-Rich Processing: Towards Efficient
Next-Generation Analytics [12.317930859033149]
我々は、文脈に富む分析を可能にするコンポーネントと協調して最適化された分析エンジンを構想する。
我々は、リレーショナルおよびモデルベース演算子間の総括的なパイプラインコストとルールベースの最適化を目指している。
論文 参考訳(メタデータ) (2022-12-14T21:46:33Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。