論文の概要: Harnessing the Power of Large Language Models for Software Testing Education: A Focus on ISTQB Syllabus
- arxiv url: http://arxiv.org/abs/2510.22318v1
- Date: Sat, 25 Oct 2025 14:45:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.096736
- Title: Harnessing the Power of Large Language Models for Software Testing Education: A Focus on ISTQB Syllabus
- Title(参考訳): ソフトウェアテスティング教育のための大規模言語モデルの力のハーネス: ISTQB Syllabusに焦点をあてて
- Authors: Tuan-Phong Ngo, Bao-Ngoc Duong, Tuan-Anh Hoang, Joshua Dwight, Ushik Shrestha Khwakhali,
- Abstract要約: International Software Testing Qualifications Board (ISTQB) 認定フレームワークは世界規模で認められ、業界や学術分野で広く採用されている。
本稿では,大規模言語モデル (LLM) が高等教育における ISTQB フレームワークをどのように補完するかを考察し,評価する。
- 参考スコア(独自算出の注目度): 0.6524460254566903
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Software testing is a critical component in the software engineering field and is important for software engineering education. Thus, it is vital for academia to continuously improve and update educational methods to reflect the current state of the field. The International Software Testing Qualifications Board (ISTQB) certification framework is globally recognized and widely adopted in industry and academia. However, ISTQB-based learning has been rarely applied with recent generative artificial intelligence advances. Despite the growing capabilities of large language models (LLMs), ISTQB-based learning and instruction with LLMs have not been thoroughly explored. This paper explores and evaluates how LLMs can complement the ISTQB framework for higher education. The findings present four key contributions: (i) the creation of a comprehensive ISTQB-aligned dataset spanning over a decade, consisting of 28 sample exams and 1,145 questions; (ii) the development of a domain-optimized prompt that enhances LLM precision and explanation quality on ISTQB tasks; (iii) a systematic evaluation of state-of-the-art LLMs on this dataset; and (iv) actionable insights and recommendations for integrating LLMs into software testing education. These findings highlight the promise of LLMs in supporting ISTQB certification preparation and offer a foundation for their broader use in software engineering at higher education.
- Abstract(参考訳): ソフトウェアテストはソフトウェア工学分野において重要な要素であり、ソフトウェア工学教育において重要である。
したがって、学界の現状を反映した教育方法を継続的に改善し、更新することが学術にとって不可欠である。
International Software Testing Qualifications Board (ISTQB) 認定フレームワークは世界規模で認められ、業界や学術分野で広く採用されている。
しかし、ISTQBベースの学習は、最近の生成人工知能の進歩にはほとんど適用されていない。
大規模言語モデル(LLM)の能力の増大にもかかわらず、ISTQBベースの学習とLLMによる指導は十分に研究されていない。
本稿では、高等教育のためのISTQBフレームワークをLLMが補完する方法について検討し、評価する。
主な貢献は4つある。
i)28のサンプル試験と1,145の質問からなる10年以上にわたる総合的なISTQB対応データセットの作成。
二 ISTQBタスクにおけるLLM精度及び説明品質を高めるドメイン最適化プロンプトの開発
三 このデータセット上の最先端LCMの系統的評価及び
(4)LCMをソフトウェアテスト教育に統合するための実行可能な洞察と勧告。
これらの知見は、ISTQB認定の準備を支援する上でのLLMの約束を強調し、高等教育におけるソフトウェア工学の幅広い利用の基礎を提供する。
関連論文リスト
- Benchmarking Chinese Commonsense Reasoning with a Multi-hop Reasoning Perspective [53.594353527056775]
我々は,大言語モデル(LLM)を評価するために,中国語コモンセンスマルチホップ推論(CCMOR)を提案する。
CCMORは、中国固有の事実知識と多段階論理的推論を統合するLLMの能力を評価するように設計されている。
提案手法では,提案手法を用いて,提案手法の検証と検証を行う。
論文 参考訳(メタデータ) (2025-10-09T20:29:00Z) - Using LLMs and Essence to Support Software Practice Adoption [0.3609538870261841]
本研究では,ソフトウェアエンジニアリングプラクティスを管理するための標準および思考フレームワークであるEssenceと,大規模言語モデル(LLM)の統合について検討する。
提案システムは、ドメイン固有のタスクにおいて、ベースラインよりも一貫して優れている。
論文 参考訳(メタデータ) (2025-08-22T14:59:35Z) - SPARQL Query Generation with LLMs: Measuring the Impact of Training Data Memorization and Knowledge Injection [81.78173888579941]
大規模言語モデル(LLM)は、質問応答機能の品質を高めるのに適した方法と考えられている。
LLMはWebデータに基づいてトレーニングされており、ベンチマークや知識グラフがトレーニングデータに含まれているかどうかを研究者は制御できない。
本稿では,自然言語質問からSPARQLクエリを生成し,LLMの品質を評価する手法を提案する。
論文 参考訳(メタデータ) (2025-07-18T12:28:08Z) - MERA Code: A Unified Framework for Evaluating Code Generation Across Tasks [56.34018316319873]
我々は,最新のLLMをロシア語で評価するためのベンチマークであるMERA Codeを提案する。
このベンチマークには、8つのプログラミング言語にまたがる11の評価タスクが含まれている。
我々はオープンなLLMとフロンティアAPIモデルを評価し、非英語言語における実用的なコーディングタスクの観点からそれらの制限を分析した。
論文 参考訳(メタデータ) (2025-07-16T14:31:33Z) - Are LLMs Ready for English Standardized Tests? A Benchmarking and Elicitation Perspective [13.167177024716338]
大規模言語モデル(LLM)は、学習者が教育コンテンツとどのように相互作用するかに革命をもたらすと約束している。
英語標準テスト(EST)の多種多様なセットにまたがって、正確かつ文脈的に適切なソリューションを生成する能力を評価する。
論文 参考訳(メタデータ) (2025-05-17T05:10:44Z) - Challenges in Testing Large Language Model Based Software: A Faceted Taxonomy [8.927002750209295]
LLM(Large Language Models)とMulti-Agent LLM(MALLMs)は、従来の機械学習ソフトウェアとは異なり、非決定性を導入している。
本稿では,LLMテストケース設計のための分類法について述べる。
論文 参考訳(メタデータ) (2025-03-01T13:15:56Z) - Benchmarking Uncertainty Quantification Methods for Large Language Models with LM-Polygraph [83.90988015005934]
不確実性定量化は機械学習アプリケーションにおいて重要な要素である。
最新のUQベースラインの集合を実装した新しいベンチマークを導入する。
我々は、11タスクにわたるUQと正規化技術に関する大規模な実証的研究を行い、最も効果的なアプローチを特定した。
論文 参考訳(メタデータ) (2024-06-21T20:06:31Z) - A Software Engineering Perspective on Testing Large Language Models: Research, Practice, Tools and Benchmarks [2.8061460833143346]
大規模言語モデル(LLM)は、スタンドアロンツールとしても、現在および将来のソフトウェアシステムのコンポーネントとしても、急速に普及しています。
LLMを2030年のハイテイクシステムや安全クリティカルシステムで使用するためには、厳格なテストを実施する必要がある。
論文 参考訳(メタデータ) (2024-06-12T13:45:45Z) - Prompting Large Language Models to Tackle the Full Software Development Lifecycle: A Case Study [72.24266814625685]
DevEvalでソフトウェア開発ライフサイクル全体にわたって、大きな言語モデル(LLM)のパフォーマンスを調査します。
DevEvalは4つのプログラミング言語、複数のドメイン、高品質なデータ収集、各タスクに対して慎重に設計および検証されたメトリクスを備えている。
GPT-4を含む現在のLLMは、DevEvalで提示される課題を解決できないことが実証研究によって示されている。
論文 参考訳(メタデータ) (2024-03-13T15:13:44Z) - Software Testing with Large Language Models: Survey, Landscape, and
Vision [32.34617250991638]
事前訓練された大規模言語モデル(LLM)は、自然言語処理と人工知能におけるブレークスルー技術として登場した。
本稿では,ソフトウェアテストにおけるLCMの利用状況について概説する。
論文 参考訳(メタデータ) (2023-07-14T08:26:12Z) - Self-Checker: Plug-and-Play Modules for Fact-Checking with Large Language Models [75.75038268227554]
Self-Checkerはファクトチェックを容易にするプラグインとプレイモジュールからなるフレームワークである。
このフレームワークは、低リソース環境でファクトチェックシステムを構築するための、高速で効率的な方法を提供する。
論文 参考訳(メタデータ) (2023-05-24T01:46:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。