論文の概要: HPCAgentTester: A Multi-Agent LLM Approach for Enhanced HPC Unit Test Generation
- arxiv url: http://arxiv.org/abs/2511.10860v1
- Date: Thu, 13 Nov 2025 23:52:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.369309
- Title: HPCAgentTester: A Multi-Agent LLM Approach for Enhanced HPC Unit Test Generation
- Title(参考訳): HPCAgentTester: 拡張HPCユニットテスト生成のためのマルチエージェントLLMアプローチ
- Authors: Rabimba Karanjai, Lei Xu, Weidong Shi,
- Abstract要約: ハイパフォーマンスコンピューティングにおける単体テストは重要であるが、並列性、複雑なアルゴリズム、多様なハードウェアによって挑戦されている。
本稿では,OpenMP と MPI を利用した HPC ソフトウェアの単体テスト生成の自動化と高速化を目的とした,新しいマルチエージェント大規模言語モデル (LLM) フレームワーク HPCAgentTester を紹介する。
- 参考スコア(独自算出の注目度): 4.317603954896689
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Unit testing in High-Performance Computing (HPC) is critical but challenged by parallelism, complex algorithms, and diverse hardware. Traditional methods often fail to address non-deterministic behavior and synchronization issues in HPC applications. This paper introduces HPCAgentTester, a novel multi-agent Large Language Model (LLM) framework designed to automate and enhance unit test generation for HPC software utilizing OpenMP and MPI. HPCAgentTester employs a unique collaborative workflow where specialized LLM agents (Recipe Agent and Test Agent) iteratively generate and refine test cases through a critique loop. This architecture enables the generation of context-aware unit tests that specifically target parallel execution constructs, complex communication patterns, and hierarchical parallelism. We demonstrate HPCAgentTester's ability to produce compilable and functionally correct tests for OpenMP and MPI primitives, effectively identifying subtle bugs that are often missed by conventional techniques. Our evaluation shows that HPCAgentTester significantly improves test compilation rates and correctness compared to standalone LLMs, offering a more robust and scalable solution for ensuring the reliability of parallel software systems.
- Abstract(参考訳): HPC(High-Performance Computing)における単体テストは、並列性、複雑なアルゴリズム、多様なハードウェアによる挑戦である。
従来の手法では、HPCアプリケーションにおける非決定論的動作や同期の問題に対処できないことが多い。
本稿では,OpenMP と MPI を利用した HPC ソフトウェアの単体テスト生成の自動化と高速化を目的とした,新しいマルチエージェント大規模言語モデル (LLM) フレームワーク HPCAgentTester を紹介する。
HPCAgentTesterは、特殊なLLMエージェント(レシピエージェントとテストエージェント)が批判ループを通じて反復的にテストケースを生成し、洗練する、ユニークなコラボレーティブワークフローを採用している。
このアーキテクチャは、並列実行構造、複雑な通信パターン、階層的並列性を特にターゲットとするコンテキスト対応単体テストの生成を可能にする。
我々は、HPCAgentTesterがOpenMPおよびMPIプリミティブのコンパイル可能かつ機能的に正しいテストを生成する能力を実証し、従来の手法でしばしば見逃される微妙なバグを効果的に識別する。
評価の結果,HPCAgentTesterはスタンドアロンのLCMと比較して,テストコンパイル率と正確性を大幅に向上し,並列ソフトウェアシステムの信頼性を確保するための堅牢でスケーラブルなソリューションを提供することがわかった。
関連論文リスト
- Automated Network Protocol Testing with LLM Agents [18.102379194660543]
NeTestLLMは、エンドツーエンドのネットワークプロトコルテストにマルチエージェント大規模言語モデル(LLM)を利用する。
実験では、NeTestLLMはOSPF、RIP、BGPで4,632件のテストケースを生成し、41の歴史的FRRoutingバグを現在の国家標準で11件と比較した。
論文 参考訳(メタデータ) (2025-10-15T07:55:15Z) - Rethinking Testing for LLM Applications: Characteristics, Challenges, and a Lightweight Interaction Protocol [83.83217247686402]
大言語モデル(LLM)は、単純なテキストジェネレータから、検索強化、ツール呼び出し、マルチターンインタラクションを統合する複雑なソフトウェアシステムへと進化してきた。
その固有の非決定主義、ダイナミズム、文脈依存は品質保証に根本的な課題をもたらす。
本稿では,LLMアプリケーションを3層アーキテクチャに分解する: textbftextitSystem Shell Layer, textbftextitPrompt Orchestration Layer, textbftextitLLM Inference Core。
論文 参考訳(メタデータ) (2025-08-28T13:00:28Z) - CompileAgent: Automated Real-World Repo-Level Compilation with Tool-Integrated LLM-based Agent System [52.048087777953064]
リポジトリレベルのコンパイル専用のエージェントフレームワークであるCompileAgentを提案する。
CompileAgentは5つのツールとフローベースのエージェント戦略を統合し、コンパイル命令検索とエラー解決のためのソフトウェアアーチファクトとのインタラクションを可能にする。
提案手法は,10%から71%の範囲で,コンパイル成功率を大幅に向上することを示す。
論文 参考訳(メタデータ) (2025-05-07T08:59:14Z) - PC-Agent: A Hierarchical Multi-Agent Collaboration Framework for Complex Task Automation on PC [98.82146219495792]
本稿では,PC-Agentという階層型エージェントフレームワークを提案する。
認識の観点からは,現在のMLLMのスクリーンショットコンテンツに対する認識能力の不十分さを克服するために,アクティブ知覚モジュール(APM)を考案する。
意思決定の観点から、複雑なユーザ命令や相互依存サブタスクをより効果的に扱うために、階層的なマルチエージェント協調アーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-02-20T05:41:55Z) - Commit0: Library Generation from Scratch [77.38414688148006]
Commit0は、AIエージェントにスクラッチからライブラリを書くよう促すベンチマークである。
エージェントには、ライブラリのAPIを概説する仕様文書と、インタラクティブなユニットテストスイートが提供されている。
Commit0はまた、モデルが生成したコードに対して静的解析と実行フィードバックを受け取る、インタラクティブな環境も提供する。
論文 参考訳(メタデータ) (2024-12-02T18:11:30Z) - ComfyBench: Benchmarking LLM-based Agents in ComfyUI for Autonomously Designing Collaborative AI Systems [80.69865295743149]
この研究は、LLMベースのエージェントを使用して、協調AIシステムを自律的に設計する試みである。
ComfyBenchをベースとしたComfyAgentは,エージェントが自律的に協調的なAIシステムを生成して設計できるようにするフレームワークである。
ComfyAgentは、o1-previewに匹敵する解像度を達成し、ComfyBenchの他のエージェントをはるかに上回っているが、ComfyAgentはクリエイティブタスクの15%しか解決していない。
論文 参考訳(メタデータ) (2024-09-02T17:44:10Z) - Harnessing the Power of LLMs: Automating Unit Test Generation for High-Performance Computing [7.3166218350585135]
ユニットテストは、品質を保証するために、ソフトウェア工学において不可欠です。
並列処理や高性能計算ソフトウェア、特に科学応用では広く使われていない。
本稿では,このようなソフトウェアを対象としたユニットテストの自動生成手法を提案する。
論文 参考訳(メタデータ) (2024-07-06T22:45:55Z) - SWT-Bench: Testing and Validating Real-World Bug-Fixes with Code Agents [10.730852617039451]
ユーザ問題をテストケースに形式化するLLMベースのコードエージェントについて検討する。
我々は人気のあるGitHubリポジトリに基づいた新しいベンチマークを提案し、現実世界の問題、地味なバグフィックス、ゴールデンテストを含む。
コード修復用に設計されたコードエージェントは,テスト生成用に設計されたシステムの性能を上回っている。
論文 参考訳(メタデータ) (2024-06-18T14:54:37Z) - Code-Aware Prompting: A study of Coverage Guided Test Generation in Regression Setting using LLM [32.44432906540792]
テスト生成における大規模言語モデルのコード認識促進戦略であるSymPromptを提案する。
SymPromptは、正しいテスト世代を5倍に増やし、CodeGen2の相対カバレッジを26%向上させる。
特に、GPT-4に適用すると、SymPromptはベースラインのプロンプト戦略に比べて2倍以上のカバレッジが向上する。
論文 参考訳(メタデータ) (2024-01-31T18:21:49Z) - MonoCoder: Domain-Specific Code Language Model for HPC Codes and Tasks [5.125171374181664]
ソフトウェア開発におけるAIのトレンドは、様々なプログラミングタスクに対処する大規模言語モデル(LLM)を開発することである。
ハイパフォーマンスコンピューティング(HPC)領域のタスクに適用されるLLMでさえ、巨大なサイズであり、トレーニングに高価な計算リソースを必要とする。
これは、HPCタスク用のLLMが、いくつかの自然および/またはプログラミング言語をサポートする既存のLLMを微調整することによって得られるためである。
既存のLMよりも桁違いに小さいが,非HPCおよびHPCコードでは性能が向上するMonoCoderという,HPC固有のLMを構築している。
論文 参考訳(メタデータ) (2023-12-20T15:11:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。