論文の概要: From Legacy Fortran to Portable Kokkos:An Autonomous Agentic AI Workflow
- arxiv url: http://arxiv.org/abs/2509.12443v1
- Date: Mon, 15 Sep 2025 20:50:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.760253
- Title: From Legacy Fortran to Portable Kokkos:An Autonomous Agentic AI Workflow
- Title(参考訳): レガシーフォートランからポータブルなKokkos:自律エージェントAIワークフロー
- Authors: Sparsh Gupta, Kamalavasan Kamalakkannan, Maxim Moraru, Galen Shipman, Patrick Diehl,
- Abstract要約: 大規模言語モデル(LLM)は、ソースコード生成において有望であることを示している。
本稿では、特殊な"エージェント"が協力して、Fortranカーネルを移植可能なKokkos C++プログラムに翻訳、検証、実行、テスト、デバッグ、最適化するエージェントAIワークフローを提案する。
結果は、パイプラインがさまざまなベンチマークカーネルを近代化し、ハードウェアパーティション間でパフォーマンスに優れたKokkosコードを生成することを示している。
- 参考スコア(独自算出の注目度): 0.11862655008303463
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scientific applications continue to rely on legacy Fortran codebases originally developed for homogeneous, CPU-based systems. As High-Performance Computing (HPC) shifts toward heterogeneous GPU-accelerated architectures, many accelerators lack native Fortran bindings, creating an urgent need to modernize legacy codes for portability. Frameworks like Kokkos provide performance portability and a single-source C++ abstraction, but manual Fortran-to-Kokkos porting demands significant expertise and time. Large language models (LLMs) have shown promise in source-to-source code generation, yet their use in fully autonomous workflows for translating and optimizing parallel code remains largely unexplored, especially for performance portability across diverse hardware. This paper presents an agentic AI workflow where specialized LLM "agents" collaborate to translate, validate, compile, run, test, debug, and optimize Fortran kernels into portable Kokkos C++ programs. Results show the pipeline modernizes a range of benchmark kernels, producing performance-portable Kokkos codes across hardware partitions. Paid OpenAI models such as GPT-5 and o4-mini-high executed the workflow for only a few U.S. dollars, generating optimized codes that surpassed Fortran baselines, whereas open-source models like Llama4-Maverick often failed to yield functional codes. This work demonstrates the feasibility of agentic AI for Fortran-to-Kokkos transformation and offers a pathway for autonomously modernizing legacy scientific applications to run portably and efficiently on diverse supercomputers. It further highlights the potential of LLM-driven agentic systems to perform structured, domain-specific reasoning tasks in scientific and systems-oriented applications.
- Abstract(参考訳): 科学的なアプリケーションは、もともと均質なCPUベースのシステムのために開発されたレガシーのFortranコードベースに依存し続けている。
HPC(High-Performance Computing)がヘテロジニアスGPUアクセラレーションアーキテクチャへと移行するにつれ、多くのアクセラレーターはネイティブなFortranバインディングを欠いているため、ポータビリティのためにレガシーコードの近代化が急務である。
Kokkosのようなフレームワークは、パフォーマンスポータビリティとシングルソースのC++抽象化を提供するが、手動のFortran-to-Kokkos移植にはかなりの専門知識と時間が必要である。
大規模な言語モデル(LLM)は、ソースからソースへのコード生成において有望であるが、並列コードの翻訳と最適化に完全に自律的なワークフローでの使用は、特に様々なハードウェアのパフォーマンスポータビリティにおいて、まだほとんど探索されていない。
本稿では,特殊な LLM "エージェント" が協調して,Fortran カーネルを移植可能な Kokkos C++ プログラムに翻訳,コンパイル,実行,テスト,デバッグ,最適化を行うエージェントAIワークフローを提案する。
結果は、パイプラインがさまざまなベンチマークカーネルを近代化し、ハードウェアパーティション間でパフォーマンスに優れたKokkosコードを生成することを示している。
GPT-5やo4-mini-highのような有料のOpenAIモデルはわずか数ドルでワークフローを実行し、Fortranのベースラインを超える最適化されたコードを生成する一方、Llama4-Maverickのようなオープンソースのモデルは機能的なコードを得ることができなかった。
この研究は、Fortran-to-Kokkos変換のためのエージェントAIの実現可能性を示し、レガシー科学アプリケーションを自律的に近代化し、多様なスーパーコンピュータ上でポータブルかつ効率的に動作させるための経路を提供する。
さらに、科学やシステム指向のアプリケーションにおいて、構造化されたドメイン固有の推論タスクを実行するためのLLM駆動のエージェントシステムの可能性を強調している。
関連論文リスト
- VerlTool: Towards Holistic Agentic Reinforcement Learning with Tool Use [78.29315418819074]
VerlToolは、体系的な設計原則を通じて制限に対処する統一的でモジュール化されたフレームワークです。
我々のフレームワークはARLTをマルチターントラジェクトリとして定式化し、マルチモード観測トークン(テキスト/画像/ビデオ)を単一ターンRLVRパラダイムを超えて拡張する。
モジュール化されたプラグインアーキテクチャは、軽量Python定義のみを必要とする迅速なツール統合を可能にする。
論文 参考訳(メタデータ) (2025-09-01T01:45:18Z) - HPCTransCompile: An AI Compiler Generated Dataset for High-Performance CUDA Transpilation and LLM Preliminary Exploration [13.53425131505526]
ディープラーニングは、モデルパラメータと計算要求の指数関数的な増加を促した。
NVIDIA GPUとそのソフトウェアエコシステムは、並列コンピューティングの堅牢なサポートを提供する。
エコシステムは並列ソフトウェア分野において支配的な地位を確立してきた。
並列プログラミングのパラダイムとハードウェアの違いにより、コードを他のプラットフォームに翻訳することは大きな課題となる。
論文 参考訳(メタデータ) (2025-06-12T06:48:33Z) - Fortran2CPP: Automating Fortran-to-C++ Translation using LLMs via Multi-Turn Dialogue and Dual-Agent Integration [10.985254527043429]
私たちのデータセットは、コード翻訳、コンパイル、実行、ユニットテスト、エラー修正を含む、フィードバック決定をキャプチャする1.7kの対話で構成されています。
このデータセットを使用して、CodeBLEUスコアの最大3.31倍の改善と、コンパイル成功率の92%向上を実現した。
論文 参考訳(メタデータ) (2024-12-27T18:06:25Z) - Leveraging Large Language Models for Code Translation and Software Development in Scientific Computing [0.9668407688201359]
生成人工知能(GenAI)は、科学計算における生産性を変革する。
我々は、コード変換の効率的なプロセスを確立するために、プロンプトエンジニアリングとユーザ管理を組み合わせたCodeScribeというツールを開発した。
AIによるコード翻訳の課題にも対処し、科学計算における生産性向上のメリットを強調します。
論文 参考訳(メタデータ) (2024-10-31T16:48:41Z) - An approach to performance portability through generic programming [0.0]
この研究は、低レベルおよび冗長なプログラミングツールを、C++のテンプレートメタプログラミングに基づく高レベルな汎用アルゴリズムに統合するための設計アプローチを説明する。
これにより、HPCのハードウェアの多様化期間において、科学ソフトウェアは保守性と効率が向上する。
論文 参考訳(メタデータ) (2023-11-08T21:54:43Z) - Exploring Continual Learning for Code Generation Models [80.78036093054855]
継続的学習(CL)は、コードドメインの中でまだ過小評価されていない重要な側面である。
コード生成,翻訳,要約,改良など,幅広いタスクをカバーするCodeTask-CLというベンチマークを導入する。
即時選択機構の不安定な訓練により,プロンプトプール (PP) などの有効手法が破滅的な忘れ込みに悩まされることが判明した。
論文 参考訳(メタデータ) (2023-07-05T16:58:39Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - Enabling Retargetable Optimizing Compilers for Quantum Accelerators via
a Multi-Level Intermediate Representation [78.8942067357231]
我々は、最適化され、再ターゲット可能で、事前コンパイルが可能なマルチレベル量子古典中間表現(IR)を提案する。
ゲートベースのOpenQASM 3言語全体をサポートし、共通量子プログラミングパターンのカスタム拡張と構文の改善を提供します。
私たちの研究は、通常のPythonのアプローチよりも1000倍高速で、スタンドアロンの量子言語コンパイラよりも5~10倍高速なコンパイル時間を実現しています。
論文 参考訳(メタデータ) (2021-09-01T17:29:47Z) - PolyDL: Polyhedral Optimizations for Creation of High Performance DL
primitives [55.79741270235602]
本稿では,Deep Learningプリミティブの高性能実装を自動的に生成するコンパイラアルゴリズムを提案する。
我々は多面体モデルを用いた新しいデータ再利用分析アルゴリズムを開発した。
また、このようなハイブリッドコンパイラとライブラリ使用の最小限のアプローチが、最先端のパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2020-06-02T06:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。