論文の概要: AI Assistants to Enhance and Exploit the PETSc Knowledge Base
- arxiv url: http://arxiv.org/abs/2506.20608v1
- Date: Wed, 25 Jun 2025 17:00:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.864402
- Title: AI Assistants to Enhance and Exploit the PETSc Knowledge Base
- Title(参考訳): AIアシスタントによるPETSc知識ベースの拡張と展開
- Authors: Barry Smith, Junchao Zhang, Hong Zhang, Lois Curfman McInnes, Murat Keceli, Archit Vasan, Satish Balay, Toby Isaac, Le Chen, Venkatram Vishwanath,
- Abstract要約: ジェネレーティブAIは、技術的知識へのアクセス、再利用、拡張の方法を変えつつある。
PETScは30年間の開発期間を通じて、豊富なが断片的な知識基盤を蓄積してきた。
この知識ベースをより効果的に活性化し活用するために、PETScチームはLLMを利用したシステムの構築を開始した。
- 参考スコア(独自算出の注目度): 5.995494397300258
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative AI, especially through large language models (LLMs), is transforming how technical knowledge can be accessed, reused, and extended. PETSc, a widely used numerical library for high-performance scientific computing, has accumulated a rich but fragmented knowledge base over its three decades of development, spanning source code, documentation, mailing lists, GitLab issues, Discord conversations, technical papers, and more. Much of this knowledge remains informal and inaccessible to users and new developers. To activate and utilize this knowledge base more effectively, the PETSc team has begun building an LLM-powered system that combines PETSc content with custom LLM tools -- including retrieval-augmented generation (RAG), reranking algorithms, and chatbots -- to assist users, support developers, and propose updates to formal documentation. This paper presents initial experiences designing and evaluating these tools, focusing on system architecture, using RAG and reranking for PETSc-specific information, evaluation methodologies for various LLMs and embedding models, and user interface design. Leveraging the Argonne Leadership Computing Facility resources, we analyze how LLM responses can enhance the development and use of numerical software, with an initial focus on scalable Krylov solvers. Our goal is to establish an extensible framework for knowledge-centered AI in scientific software, enabling scalable support, enriched documentation, and enhanced workflows for research and development. We conclude by outlining directions for expanding this system into a robust, evolving platform that advances software ecosystems to accelerate scientific discovery.
- Abstract(参考訳): 生成AI、特に大規模言語モデル(LLM)を通じて、技術的知識へのアクセス、再利用、拡張の方法を変えようとしている。
PETScは、高性能な科学計算のために広く使われている数値ライブラリであり、ソースコード、ドキュメンテーション、メーリングリスト、GitLabイシュー、Discordの会話、技術論文など、30年間にわたって豊富なが断片的な知識ベースを蓄積している。
この知識の多くは非公式で、ユーザや新しい開発者にはアクセスできないままです。
PETScチームは、この知識ベースをより効果的に活性化し、活用するために、PETScコンテンツと検索強化生成(RAG)、アルゴリズムの再ランク付け、チャットボットを含むカスタムLLMツールを組み合わせたLLMベースのシステムを構築し、ユーザを支援し、開発者をサポートし、正式なドキュメントの更新を提案する。
本稿では,これらのツールの設計と評価,システムアーキテクチャ,RAGの利用,PETSc固有の情報の再評価,各種LCMおよび埋め込みモデルの評価手法,ユーザインタフェース設計について述べる。
Argonne Leadership Computing Facilityのリソースを活用して、私たちは、スケーラブルなKrylovソルバを中心に、LCM応答がどのように数値ソフトウェアの開発と使用を向上するかを分析します。
私たちのゴールは、科学ソフトウェアにおける知識中心のAIのための拡張可能なフレームワークを確立することです。
我々は、このシステムを、科学的な発見を加速するためにソフトウェアエコシステムを前進させる、堅牢で進化中のプラットフォームに拡張するための方向性を概説して結論付けます。
関連論文リスト
- LLM4CD: Leveraging Large Language Models for Open-World Knowledge Augmented Cognitive Diagnosis [56.50378080174923]
オープンワールド知識強化認知診断のための大規模言語モデルを活用するLCM4CDを提案する。
本手法はLLMのオープンワールド知識を利用して認知表現型テキスト表現を構築し,CDタスクにリッチな意味情報を導入する。
このアプローチは、従来のID埋め込みを意味表現に置き換え、新しい学生やオープンワールドの知識を持つエクササイズに対応できるようにし、コールドスタート問題に対処する。
論文 参考訳(メタデータ) (2025-05-14T14:48:00Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - Cross-Data Knowledge Graph Construction for LLM-enabled Educational Question-Answering System: A Case Study at HCMUT [2.8000537365271367]
大規模言語モデル(LLM)は活発な研究トピックとして現れている。
LLMはイベントの記憶、新しい情報の導入、ドメイン固有の問題や幻覚への対処において課題に直面している。
本稿では,複数のデータソースから知識グラフを自動的に構築する手法を提案する。
論文 参考訳(メタデータ) (2024-04-14T16:34:31Z) - Lessons from Building StackSpot AI: A Contextualized AI Coding Assistant [2.268415020650315]
大規模言語モデル上に構築された新しいタイプのツールが登場しつつある。
これらのツールは、微調整やコンテキスト情報によるユーザプロンプトの強化といった手法を用いて、欠点を軽減することを目的としている。
論文 参考訳(メタデータ) (2023-11-30T10:51:26Z) - CodeTF: One-stop Transformer Library for State-of-the-art Code LLM [72.1638273937025]
我々は、最先端のCode LLMとコードインテリジェンスのためのオープンソースのTransformerベースのライブラリであるCodeTFを紹介する。
我々のライブラリは、事前訓練されたコードLLMモデルと人気のあるコードベンチマークのコレクションをサポートします。
CodeTFが機械学習/生成AIとソフトウェア工学のギャップを埋められることを願っている。
論文 参考訳(メタデータ) (2023-05-31T05:24:48Z) - Technology Readiness Levels for Machine Learning Systems [107.56979560568232]
機械学習システムの開発とデプロイは、現代のツールで簡単に実行できますが、プロセスは一般的に急ぎ、エンドツーエンドです。
私たちは、機械学習の開発と展開のための実証済みのシステムエンジニアリングアプローチを開発しました。
当社の「機械学習技術準備レベル」フレームワークは、堅牢で信頼性が高く、責任あるシステムを確保するための原則的なプロセスを定義します。
論文 参考訳(メタデータ) (2021-01-11T15:54:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。