論文の概要: LLM as HPC Expert: Extending RAG Architecture for HPC Data
- arxiv url: http://arxiv.org/abs/2501.14733v1
- Date: Mon, 09 Dec 2024 02:55:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-02 07:48:07.250491
- Title: LLM as HPC Expert: Extending RAG Architecture for HPC Data
- Title(参考訳): HPC専門家としてのLLM:HPCデータのためのRAGアーキテクチャの拡張
- Authors: Yusuke Miyashita, Patrick Kin Man Tung, Johan Barthélemy,
- Abstract要約: 本稿では、検索補助生成(RAG)を拡張する新しい手法である仮説コマンド埋め込み(HyCE)を紹介する。
HyCEは、大規模言語モデル(LLM)をリアルタイムなユーザ固有のHPC情報で強化し、そのようなデータに対する微調整モデルの制限に対処する。
我々は、データプライバシやコマンド実行リスクなど、重要なセキュリティ上の問題に対処し、HPC環境にLLMをデプロイする。
- 参考スコア(独自算出の注目度): 0.058520770038704165
- License:
- Abstract: High-Performance Computing (HPC) is crucial for performing advanced computational tasks, yet their complexity often challenges users, particularly those unfamiliar with HPC-specific commands and workflows. This paper introduces Hypothetical Command Embeddings (HyCE), a novel method that extends Retrieval-Augmented Generation (RAG) by integrating real-time, user-specific HPC data, enhancing accessibility to these systems. HyCE enriches large language models (LLM) with real-time, user-specific HPC information, addressing the limitations of fine-tuned models on such data. We evaluate HyCE using an automated RAG evaluation framework, where the LLM itself creates synthetic questions from the HPC data and serves as a judge, assessing the efficacy of the extended RAG with the evaluation metrics relevant for HPC tasks. Additionally, we tackle essential security concerns, including data privacy and command execution risks, associated with deploying LLMs in HPC environments. This solution provides a scalable and adaptable approach for HPC clusters to leverage LLMs as HPC expert, bridging the gap between users and the complex systems of HPC.
- Abstract(参考訳): HPC(High-Performance Computing)は、高度な計算タスクを実行するために重要であるが、その複雑さはしばしばユーザ、特にHPC固有のコマンドやワークフローに精通していないユーザに挑戦する。
本稿では,リアルタイムなユーザ固有のHPCデータを統合し,それらのシステムへのアクセシビリティを高めることによって,検索・拡張生成(RAG)を拡張する新しい手法であるHyCEについて紹介する。
HyCEは、大規模言語モデル(LLM)をリアルタイムなユーザ固有のHPC情報で強化し、そのようなデータに対する微調整モデルの制限に対処する。
我々はHyCEを自動RAG評価フレームワークを用いて評価し、LLMはHPCデータから合成質問を作成、裁判官として機能し、拡張RAGの有効性をHPCタスクに関連する評価指標で評価する。
さらに,データプライバシやコマンド実行リスクなど,HPC環境にLLMをデプロイする上で重要なセキュリティ上の問題にも対処する。
このソリューションは、HPCクラスタがLLMをHPCエキスパートとして活用するためのスケーラブルで適応可能なアプローチを提供し、ユーザとHPCの複雑なシステム間のギャップを埋める。
関連論文リスト
- Exploring Code Language Models for Automated HLS-based Hardware Generation: Benchmark, Infrastructure and Analysis [49.998130983414924]
LLM(Large Language Model)は、PythonやC++などのプログラミング言語に使用される。
本稿では,LLMを利用してHLS(High-Level Synthesis)ベースのハードウェア設計を行う。
論文 参考訳(メタデータ) (2025-02-19T17:53:59Z) - Fire-Flyer AI-HPC: A Cost-Effective Software-Hardware Co-Design for Deep Learning [49.997801914237094]
我々は、シナジスティックなハードウェアとソフトウェアの共同設計フレームワークであるFire-Flyer AI-HPCアーキテクチャとそのベストプラクティスを紹介する。
ディープラーニング(DL)トレーニングでは、1万のPCIe A100 GPUでFire-Flyer 2をデプロイし、DGX-A100の性能評価を達成し、コストを半分に削減し、エネルギー消費を40%削減しました。
HaiScaleや3FS,HAI-Platformといったソフトウェアスタックを通じて,計算処理と通信を重複させることで,大幅なスケーラビリティを実現しました。
論文 参考訳(メタデータ) (2024-08-26T10:11:56Z) - Chat AI: A Seamless Slurm-Native Solution for HPC-Based Services [0.3124884279860061]
大規模言語モデル(LLM)は、研究者がオープンソースまたはカスタムの微調整 LLM を実行し、ユーザが自分のデータがプライベートであり、同意なしに保存されないことを保証します。
本稿では,HPC システム上で多数の LLM モデルを実行するスケーラブルなバックエンドにセキュアにアクセス可能な,クラウド VM 上で動作する Web サービスによる実装を提案する。
我々のソリューションは、HPCバッチスケジューラのSlurmと統合されており、HPCクラスタへのシームレスなデプロイを可能にし、通常のSlurmワークロードと並行して実行できる。
論文 参考訳(メタデータ) (2024-06-27T12:08:21Z) - Adaptive-RAG: Learning to Adapt Retrieval-Augmented Large Language Models through Question Complexity [59.57065228857247]
Retrieval-augmented Large Language Models (LLMs) は、質問回答(QA)のようなタスクにおける応答精度を高めるための有望なアプローチとして登場した。
本稿では,クエリの複雑さに基づいて,LLMの最適戦略を動的に選択できる適応型QAフレームワークを提案する。
オープンドメインのQAデータセットを用いて、複数のクエリの複雑さを網羅し、QAシステムの全体的な効率性と精度を高めることを示す。
論文 参考訳(メタデータ) (2024-03-21T13:52:30Z) - Age-Based Scheduling for Mobile Edge Computing: A Deep Reinforcement
Learning Approach [58.911515417156174]
我々は情報時代(AoI)の新たな定義を提案し、再定義されたAoIに基づいて、MECシステムにおけるオンラインAoI問題を定式化する。
本稿では,システム力学の部分的知識を活用するために,PDS(Post-Decision State)を導入する。
また、PSDと深いRLを組み合わせることで、アルゴリズムの適用性、スケーラビリティ、堅牢性をさらに向上します。
論文 参考訳(メタデータ) (2023-12-01T01:30:49Z) - HPC-GPT: Integrating Large Language Model for High-Performance Computing [3.8078849170829407]
HPCドメインに対して生成されたQA(Question-Answer)インスタンスを用いて微調整を行う新しいLLaMAモデルであるHPC-GPTを提案する。
その有効性を評価するために、AIモデルとHPC用データセットの管理とデータ競合検出という2つのHPCタスクに集中する。
LLMとHPC固有のタスク間の性能ギャップを埋めるHPC-GPTの可能性について検討した。
論文 参考訳(メタデータ) (2023-10-03T01:34:55Z) - A New Linear Scaling Rule for Private Adaptive Hyperparameter Optimization [57.450449884166346]
本稿では,HPOのプライバシコストを考慮した適応型HPO法を提案する。
我々は22のベンチマークタスク、コンピュータビジョンと自然言語処理、事前学習と微調整で最先端のパフォーマンスを得る。
論文 参考訳(メタデータ) (2022-12-08T18:56:37Z) - DRAS-CQSim: A Reinforcement Learning based Framework for HPC Cluster
Scheduling [0.9529163786034884]
DRAS-CQSimと呼ばれる強化学習に基づくHPCスケジューリングフレームワークを提案し、最適なスケジューリングポリシーを自動的に学習する。
DRAS-CQSimはシミュレーション環境、エージェント、ハイパーパラメータチューニングオプション、および異なる強化学習アルゴリズムをカプセル化し、システム管理者は迅速にカスタマイズされたスケジューリングポリシーを取得できる。
論文 参考訳(メタデータ) (2021-05-16T21:56:31Z) - Secure Platform for Processing Sensitive Data on Shared HPC Systems [0.0]
高性能コンピューティングクラスタは、機密データを処理するための課題を提起する。
本研究では,従来のマルチテナント高速コンピューティングクラスタ上でセキュアな計算環境を構築するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-03-26T18:30:33Z) - Integrating Deep Learning in Domain Sciences at Exascale [2.241545093375334]
我々は,大規模HPCシステム上でディープラーニングモデルとアプリケーションを効率的に動作させるための既存パッケージの評価を行った。
本稿では,現在の大規模異種システムに対する新しい非同期並列化と最適化手法を提案する。
従来の計算集約型アプリケーションとデータ集約型アプリケーションをAIで拡張するための図表と潜在的なソリューションを提案する。
論文 参考訳(メタデータ) (2020-11-23T03:09:58Z) - Conservative Q-Learning for Offline Reinforcement Learning [106.05582605650932]
CQLは既存のオフラインRLメソッドよりも大幅に優れており、多くの場合、ファイナルリターンの2~5倍高いポリシを学習しています。
理論的には、CQLは現在のポリシーの価値の低いバウンダリを生成し、理論的改善保証を伴う政策学習手順に組み込むことができることを示す。
論文 参考訳(メタデータ) (2020-06-08T17:53:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。