論文の概要: Connecting Large Language Model Agent to High Performance Computing Resource
- arxiv url: http://arxiv.org/abs/2502.12280v1
- Date: Mon, 17 Feb 2025 19:32:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:06:11.637033
- Title: Connecting Large Language Model Agent to High Performance Computing Resource
- Title(参考訳): 大規模言語モデルエージェントを高性能コンピューティングリソースに接続する
- Authors: Heng Ma, Alexander Brace, Carlo Siebenschuh, Greg Pauloski, Ian Foster, Arvind Ramanathan,
- Abstract要約: 大規模言語モデルエージェントワークフローにより、LLMはツール関数を実行して、特定の科学的領域の質問のパフォーマンスを向上させることができる。
大規模な科学研究に取り組むためには、計算資源へのアクセスと並列コンピューティングのセットアップが必要である。
我々はLangChain/LangGraphツールコール設定にParslを実装し、LLMエージェントとコンピューティングリソースのギャップを埋める。
- 参考スコア(独自算出の注目度): 39.370841294724045
- License:
- Abstract: The Large Language Model agent workflow enables the LLM to invoke tool functions to increase the performance on specific scientific domain questions. To tackle large scale of scientific research, it requires access to computing resource and parallel computing setup. In this work, we implemented Parsl to the LangChain/LangGraph tool call setup, to bridge the gap between the LLM agent to the computing resource. Two tool call implementations were set up and tested on both local workstation and HPC environment on Polaris/ALCF. The first implementation with Parsl-enabled LangChain tool node queues the tool functions concurrently to the Parsl workers for parallel execution. The second configuration is implemented by converting the tool functions into Parsl ensemble functions, and is more suitable for large task on super computer environment. The LLM agent workflow was prompted to run molecular dynamics simulations, with different protein structure and simulation conditions. These results showed the LLM agent tools were managed and executed concurrently by Parsl on the available computing resource.
- Abstract(参考訳): 大規模言語モデルエージェントワークフローにより、LLMはツール関数を実行して、特定の科学的領域の質問のパフォーマンスを向上させることができる。
大規模な科学研究に取り組むためには、計算資源へのアクセスと並列コンピューティングのセットアップが必要である。
本研究では,LangChain/LangGraphツールコール設定にParslを実装し,LLMエージェントとコンピュータリソースとのギャップを埋める。
ローカルワークステーションとPolaris/ALCF上のHPC環境の両方で2つのツールコール実装が設定およびテストされた。
Parsl対応のLangChainツールノードによる最初の実装は、並列実行のためにツール機能をParslワーカーに並列にキューする。
第2の構成は、ツール関数をParslアンサンブル関数に変換することで実装され、スーパーコンピュータ環境における大きなタスクに適している。
LLMエージェントのワークフローは、異なるタンパク質構造とシミュレーション条件で分子動力学シミュレーションを実行するように促された。
これらの結果から, LLMエージェントはParslによって管理され, 同時に実行されることが明らかとなった。
関連論文リスト
- APPL: A Prompt Programming Language for Harmonious Integration of Programs and Large Language Model Prompts [21.819126948549766]
大規模言語モデル(LLM)は、巧妙なプロンプトの助けを借りて、多様なタスクを扱う能力が高まっている。
APPLはコンピュータプログラムとLLMの間のブリッジとして機能し、Python関数へのプロンプトのシームレスな埋め込みを可能にする。
論文 参考訳(メタデータ) (2024-06-19T02:29:59Z) - Small Agent Can Also Rock! Empowering Small Language Models as Hallucination Detector [114.88975874411142]
幻覚検出は大規模言語モデル(LLM)にとって難しい課題である
本稿では,HluAgentと呼ばれる自律型LLMエージェントフレームワークを提案する。
HaluAgentでは、LLM、多機能ツールボックスを統合し、きめ細かい3段階検出フレームワークを設計する。
論文 参考訳(メタデータ) (2024-06-17T07:30:05Z) - Chain of Tools: Large Language Model is an Automatic Multi-tool Learner [54.992464510992605]
Automatic Tool Chain(ATC)は、大規模言語モデル(LLM)がマルチツールユーザとして機能することを可能にするフレームワークである。
次に,ツールの範囲を拡大するために,ブラックボックス探索法を提案する。
包括的な評価のために、ToolFlowという挑戦的なベンチマークを構築しました。
論文 参考訳(メタデータ) (2024-05-26T11:40:58Z) - An LLM-Tool Compiler for Fused Parallel Function Calling [1.990293258268139]
LLM(Large Language Models)における最先端のシーケンシャル推論は、会話タスク以外のCopilotの機能を複雑な関数呼び出しに拡張した。
LLM-Toolコンパイラは、実行時に単一の関数の下で同様のツール操作を融合し、LLMに統一的なタスクとして提示する。
大規模なCopilotプラットフォーム上でベンチマークされたLLM-Toolコンパイラは、既存のメソッドよりも最大4倍の並列呼び出しを実現し、トークンコストとレイテンシを最大40%と12%削減する。
論文 参考訳(メタデータ) (2024-05-07T18:55:50Z) - Middleware for LLMs: Tools Are Instrumental for Language Agents in Complex Environments [35.670330583914904]
大規模言語モデル(LLM)は、複雑な環境で動作可能な汎用エージェントとして構想されている。
このような複雑性に対処する上で,LSMを増強する新しいツールのクラスを導入する。
2つの代表的な複雑な環境 -- 知識ベース(KB)とデータベース -- において、ツールで言語エージェントを増強する大きな可能性を実証する。
論文 参考訳(メタデータ) (2024-02-22T16:18:07Z) - An LLM Compiler for Parallel Function Calling [68.04566807806071]
我々は,複数の関数呼び出しを効率的にオーケストレーションするために並列に関数を実行するLLMCompilerを紹介する。
ReActと比較して、一貫したレイテンシの高速化が3.7倍、コストの削減が6.7倍、精度が9%向上している。
論文 参考訳(メタデータ) (2023-12-07T18:32:04Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z) - CRAFT: Customizing LLMs by Creating and Retrieving from Specialized
Toolsets [75.64181719386497]
大規模言語モデル(LLM)のためのツール作成・検索フレームワークであるCRAFTを提案する。
タスク用に特別にキュレートされたツールセットを作成し、複雑なタスクを解決する能力を高めるためにこれらのセットからツールを取得するコンポーネントをLLMに装備する。
本手法はフレキシブルに設計されており,既製のLCMを細かな調整なしに未確認領域やモダリティに適応するためのプラグアンドプレイ方式を提供する。
論文 参考訳(メタデータ) (2023-09-29T17:40:26Z) - Language Models can Solve Computer Tasks [13.914130729517584]
学習済みの大規模言語モデル(LLM)エージェントは,簡単なプロンプトスキームを用いて自然言語で指導されたコンピュータタスクを実行できることを示す。
複数のLLMを比較し,InstructGPT-3+RLHF LLMがMiniWoB++の最先端であることを示す。
論文 参考訳(メタデータ) (2023-03-30T16:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。