論文の概要: Unit Testing in ASP Revisited: Language and Test-Driven Development
Environment
- arxiv url: http://arxiv.org/abs/2401.02153v1
- Date: Thu, 4 Jan 2024 09:04:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-05 15:34:24.879528
- Title: Unit Testing in ASP Revisited: Language and Test-Driven Development
Environment
- Title(参考訳): ASPでの単体テスト:言語とテスト駆動開発環境
- Authors: Giovanni Amendola, Tobias Berei, Giuseppe Mazzotta, Francesco Ricca
- Abstract要約: ASPプログラム内でテストのインライン化を可能にする新しい単体テスト仕様言語を提案する。
テストケースの仕様は従来の評価には透過的だが、特定のテストツールで解釈できる。
- 参考スコア(独自算出の注目度): 8.110978727364397
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unit testing frameworks are nowadays considered a best practice, included in
almost all modern software development processes, to achieve rapid development
of correct specifications. Knowledge representation and reasoning paradigms
such as Answer Set Programming (ASP), that have been used in industry-level
applications, are not an exception. Indeed, the first unit testing
specification language for ASP was proposed in 2011 as a feature of the ASPIDE
development environment. Later, a more portable unit testing language was
included in the LANA annotation language. In this paper we revisit both
languages and tools for unit testing in ASP. We propose a new unit test
specification language that allows one to inline tests within ASP programs, and
we identify the computational complexity of the tasks associated with checking
the various program-correctness assertions. Test-case specifications are
transparent to the traditional evaluation, but can be interpreted by a specific
testing tool. Thus, we present a novel environment supporting test driven
development of ASP programs.
- Abstract(参考訳): ユニットテストフレームワークは、現在、ほぼすべてのモダンなソフトウェア開発プロセスに含まれる、正しい仕様の迅速な開発を達成するためのベストプラクティスとみなされています。
業界レベルのアプリケーションで使われているAnswer Set Programming(ASP)のような知識表現と推論パラダイムは例外ではありません。
実際、aspの最初のユニットテスト仕様言語は2011年にaspide開発環境の機能として提案された。
後に、よりポータブルなユニットテスト言語がLANAアノテーション言語に含まれている。
本稿では、ASP.NETでの単体テストのための言語とツールについて再検討する。
我々は、aspプログラム内でテストのインライン化を可能にする新しいユニットテスト仕様言語を提案し、様々なプログラム修正アサーションのチェックに関連するタスクの計算の複雑さを同定する。
テストケース仕様は従来の評価には透過的だが、特定のテストツールによって解釈できる。
そこで我々は,ASPプログラムのテスト駆動開発を支援する新しい環境を提案する。
関連論文リスト
- LlamaRestTest: Effective REST API Testing with Small Language Models [50.058600784556816]
LlamaRestTestは、2つのカスタムLCMを使って現実的なテストインプットを生成する新しいアプローチである。
LlamaRestTestは、RESTGPTで強化された仕様でさえ、コードカバレッジとエラー検出において最先端のツールを上回っている。
論文 参考訳(メタデータ) (2025-01-15T05:51:20Z) - Commit0: Library Generation from Scratch [77.38414688148006]
Commit0は、AIエージェントにスクラッチからライブラリを書くよう促すベンチマークである。
エージェントには、ライブラリのAPIを概説する仕様文書と、インタラクティブなユニットテストスイートが提供されている。
Commit0はまた、モデルが生成したコードに対して静的解析と実行フィードバックを受け取る、インタラクティブな環境も提供する。
論文 参考訳(メタデータ) (2024-12-02T18:11:30Z) - Disrupting Test Development with AI Assistants [1.024113475677323]
GitHub Copilot、ChatGPT、TabnineなどのジェネレーティブAI支援コーディングツールは、ソフトウェア開発を大きく変えた。
本稿では、これらのイノベーションが生産性とソフトウェア開発のメトリクスにどのように影響するかを分析する。
論文 参考訳(メタデータ) (2024-11-04T17:52:40Z) - ASTER: Natural and Multi-language Unit Test Generation with LLMs [6.259245181881262]
静的解析を組み込んだジェネリックパイプラインを記述し,コンパイル可能な高カバレッジテストケースの生成においてLCMをガイドする。
コードカバレッジとテスト自然性の観点から,生成したテストの品質を評価するための実証的研究を行った。
論文 参考訳(メタデータ) (2024-09-04T21:46:18Z) - A System for Automated Unit Test Generation Using Large Language Models and Assessment of Generated Test Suites [1.4563527353943984]
大規模言語モデル(LLM)はソフトウェア開発の様々な側面に適用されている。
Javaプロジェクトのテストスイートを生成する自動化システムであるAgoneTestを紹介します。
論文 参考訳(メタデータ) (2024-08-14T23:02:16Z) - Prompting Large Language Models to Tackle the Full Software Development Lifecycle: A Case Study [72.24266814625685]
DevEvalでソフトウェア開発ライフサイクル全体にわたって、大きな言語モデル(LLM)のパフォーマンスを調査します。
DevEvalは4つのプログラミング言語、複数のドメイン、高品質なデータ収集、各タスクに対して慎重に設計および検証されたメトリクスを備えている。
GPT-4を含む現在のLLMは、DevEvalで提示される課題を解決できないことが実証研究によって示されている。
論文 参考訳(メタデータ) (2024-03-13T15:13:44Z) - REST: Retrieval-Based Speculative Decoding [69.06115086237207]
本稿では,言語モデル生成の高速化を目的とした新しいアルゴリズムであるRetrieval-Based Speculative Decoding(REST)を紹介する。
投機的復号化のためのドラフト言語モデルに依存する従来の方法とは異なり、RESTは検索の力を利用してドラフトトークンを生成する。
単一バッチ環境で7Bと13Bの言語モデルでベンチマークすると、RESTはコードやテキスト生成において1.62Xから2.36Xの大幅なスピードアップを達成する。
論文 参考訳(メタデータ) (2023-11-14T15:43:47Z) - Prompting Code Interpreter to Write Better Unit Tests on Quixbugs
Functions [0.05657375260432172]
単体テストは、ソフトウェア工学において、記述されたコードの正確性と堅牢性をテストするために一般的に使用されるアプローチである。
本研究では,コードインタプリタが生成する単体テストの品質に及ぼす異なるプロンプトの影響について検討する。
生成した単体テストの品質は、提供されたプロンプトのマイナーな詳細の変更に敏感ではないことがわかった。
論文 参考訳(メタデータ) (2023-09-30T20:36:23Z) - Automated Support for Unit Test Generation: A Tutorial Book Chapter [21.716667622896193]
単体テストは、システムの他の部分と独立してテストできる最小のコードセグメントをテストする段階である。
単体テストは通常実行可能なコードとして書かれ、Pythonのpytestのような単体テストフレームワークが提供する形式で書かれる。
本章では,検索に基づく単体テスト生成の概念を紹介する。
論文 参考訳(メタデータ) (2021-10-26T11:13:40Z) - AVATAR: A Parallel Corpus for Java-Python Program Translation [77.86173793901139]
プログラム翻訳とは、ある言語から別の言語へソースコードを移行することを指す。
AVATARは9,515のプログラミング問題とそのソリューションをJavaとPythonという2つの人気のある言語で記述したものです。
論文 参考訳(メタデータ) (2021-08-26T05:44:20Z) - Zero-Shot Cross-lingual Semantic Parsing [56.95036511882921]
7つのテスト言語に対する並列データを持たないゼロショット問題として,言語間セマンティックパーシングについて検討した。
英文論理形式ペアデータのみを用いて解析知識を付加言語に転送するマルチタスクエンコーダデコーダモデルを提案する。
このシステムは、ゼロショット解析を潜時空間アライメント問題としてフレーム化し、事前訓練されたモデルを改善し、最小のクロスリンガル転送ペナルティで論理形式を生成することができる。
論文 参考訳(メタデータ) (2021-04-15T16:08:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。