論文の概要: Invariant-Driven Automated Testing
- arxiv url: http://arxiv.org/abs/2602.23922v1
- Date: Fri, 27 Feb 2026 11:11:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.386661
- Title: Invariant-Driven Automated Testing
- Title(参考訳): 不変駆動自動テスト
- Authors: Ana Catarina Ribeiro,
- Abstract要約: このテーマは、マイクロサービステストプロセスを完全に自動化することを目的としています。
PETITは、OpenAPI Specificationドキュメントが提供されているときにテストできるツールである。
このツールはソースコードから独立して分析できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Microservice architectures are an emergent technology that builds business logic into a suite of small services. Each microservice runs in its process and the communication is made through lightweight mechanisms, usually HTTP resource API. These architectures are built upon independently deployable and, supposedly, reliable pieces of software that may, or may not, have been developed by the team using it. Nowadays, industries are dangerously migrating into microservice architectures without an effective and automatic process for testing the software being used. Furthermore, current API specification languages are not expressive enough to be used for testing purposes. To solve this problem it is necessary to extend currently broadly used API specification languages. APOSTL is a specification language to annotate APIs specifications based on first-order logic, with some restrictions. It has the purpose of extending the currently used API description languages with properties that can be useful for testing purposes, transforming these description documents into useful testing artefacts. Besides providing information needed for testing an application, APOSTL also provides an API with semantic. This additional information is then leveraged to automate microservice testing. The work developed in this thesis aims to fully automate the microservice testing process. It is achieved by the implementation of PETIT a tool able to test microservices when provided with an OpenAPI Specification document, written in JSON and properly annotated with the previously proposed specification language, APOSTL. The tool is able to analyze microservices independently from the source code availability.
- Abstract(参考訳): マイクロサービスアーキテクチャは、ビジネスロジックを一連の小さなサービスに組み込む、創発的な技術です。
各マイクロサービスはプロセス内で動作し、通信は軽量なメカニズム(通常はHTTPリソースAPI)を通じて行われる。
これらのアーキテクチャは独立してデプロイ可能で、チームによって開発されているかもしれないし、そうでないかもしれないソフトウェアの信頼性の高い部分の上に構築されている。
今日では、産業は、使用中のソフトウェアをテストするための効果的で自動的なプロセスなしで、マイクロサービスアーキテクチャへ危険な移行を遂げています。
さらに、現在のAPI仕様言語は、テスト目的で使用するのに十分な表現力を持っていません。
この問題を解決するには、現在広く使われているAPI仕様言語を拡張する必要がある。
APOSTLは、一階述語論理に基づいてAPI仕様に注釈を付けるための仕様言語であり、いくつかの制限がある。
現在使われているAPI記述言語を、テスト目的に有用なプロパティで拡張し、これらの記述ドキュメントを有用なテスト成果物に変換することを目的としている。
アプリケーションのテストに必要な情報を提供するだけでなく、APOSTLはセマンティックなAPIも提供する。
この追加情報はマイクロサービステストを自動化するために利用される。
この論文で開発された作業は、マイクロサービステストプロセスを完全に自動化することを目的としている。
PETITは、JSONで書かれ、以前に提案された仕様言語であるAPOSTLで適切に注釈付けされたOpenAPI Specificationドキュメントを提供するときに、マイクロサービスをテストすることができるツールである。
このツールは、ソースコードの可用性から独立してマイクロサービスを分析することができる。
関連論文リスト
- From Specification to Service: Accelerating API-First Development Using Multi-Agent Systems [2.2805184653738175]
本稿では,Large Language Models (LLM) ベースのエージェントを用いて,サーバコードのAPIファースト開発を自動化するシステムを提案する。
このシステムはOpenAPI仕様の作成を支援し、そこからコードを生成し、実行ログとエラーメッセージを分析するフィードバックループを通じてコードを洗練する。
論文 参考訳(メタデータ) (2025-10-22T06:22:36Z) - A Framework for Testing and Adapting REST APIs as LLM Tools [11.757827071584737]
大きな言語モデル(LLM)は、外部ツールで複雑なタスクを実行する自律エージェントを構築するために、ますます使われています。
現在のベンチマークではこれらの課題を見落としており、エージェント駆動自動化のためのAPI準備性の評価のギャップが残っている。
LLMエージェント用のPythonツールとしてラップされたエンタープライズAPIを体系的に評価するテストフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-22T02:52:08Z) - LLM-Generated Microservice Implementations from RESTful API Definitions [3.740584607001637]
本稿では,Large Language Models (LLMs) を用いて,APIファーストのソフトウェア開発を自動化するシステムを提案する。
システムはOpenAPI仕様を生成し、そこからサーバコードを生成し、実行ログとエラーメッセージを分析するフィードバックループを通じてコードを精査する。
このシステムは、ソフトウェア開発サイクルをスピードアップする上で、ソフトウェア開発者、アーキテクト、組織に利益をもたらす可能性がある。
論文 参考訳(メタデータ) (2025-02-13T20:50:33Z) - ToolFactory: Automating Tool Generation by Leveraging LLM to Understand REST API Documentations [4.934192277899036]
APIドキュメントは、標準化、一貫性のないスキーマ、不完全な情報の欠如に悩まされることが多い。
textbfToolFactoryは、構造化されていないAPIドキュメントからツール生成を自動化するオープンソースのパイプラインである。
また,グリコマテリアル研究のためのドメイン固有のAIエージェントを作成することで,ToolFactoryを実証した。
論文 参考訳(メタデータ) (2025-01-28T13:42:33Z) - LlamaRestTest: Effective REST API Testing with Small Language Models [50.058600784556816]
LlamaRestTestは、2つのLLM(Large Language Models)を使って現実的なテストインプットを生成する新しいアプローチである。
私たちは、GPTを使った仕様強化ツールであるRESTGPTなど、最先端のREST APIテストツールに対して、これを評価しています。
私たちの研究は、REST APIテストにおいて、小さな言語モデルは、大きな言語モデルと同様に、あるいは、より良く機能することができることを示しています。
論文 参考訳(メタデータ) (2025-01-15T05:51:20Z) - Commit0: Library Generation from Scratch [77.38414688148006]
Commit0は、AIエージェントにスクラッチからライブラリを書くよう促すベンチマークである。
エージェントには、ライブラリのAPIを概説する仕様文書と、インタラクティブなユニットテストスイートが提供されている。
Commit0はまた、モデルが生成したコードに対して静的解析と実行フィードバックを受け取る、インタラクティブな環境も提供する。
論文 参考訳(メタデータ) (2024-12-02T18:11:30Z) - A Systematic Evaluation of Large Code Models in API Suggestion: When, Which, and How [53.65636914757381]
API提案は、現代のソフトウェア開発において重要なタスクである。
大規模コードモデル(LCM)の最近の進歩は、API提案タスクにおいて有望であることを示している。
論文 参考訳(メタデータ) (2024-09-20T03:12:35Z) - KAT: Dependency-aware Automated API Testing with Large Language Models [1.7264233311359707]
KAT(Katalon API Testing)は、APIを検証するためのテストケースを自律的に生成する、AI駆動の新たなアプローチである。
実世界の12のサービスを用いたKATの評価は、検証カバレッジを改善し、文書化されていないステータスコードを検出し、これらのサービスの偽陽性を低減できることを示している。
論文 参考訳(メタデータ) (2024-07-14T14:48:18Z) - ToolLLM: Facilitating Large Language Models to Master 16000+ Real-world
APIs [104.37772295581088]
オープンソースの大規模言語モデル(LLM)、例えばLLaMAは、ツール使用能力に大きく制限されている。
データ構築、モデルトレーニング、評価を含む汎用ツールであるToolLLMを紹介する。
ツール使用のためのインストラクションチューニングフレームワークであるToolBenchを,ChatGPTを使って自動構築する。
論文 参考訳(メタデータ) (2023-07-31T15:56:53Z) - Evaluating Embedding APIs for Information Retrieval [51.24236853841468]
ドメインの一般化と多言語検索における既存のセマンティック埋め込みAPIの機能を評価する。
BM25の結果をAPIを使って再ランク付けすることは、予算に優しいアプローチであり、英語でもっとも効果的である。
非英語検索では、再ランク付けは結果を改善するが、BM25のハイブリッドモデルは高いコストで機能する。
論文 参考訳(メタデータ) (2023-05-10T16:40:52Z) - Binding Language Models in Symbolic Languages [146.3027328556881]
Binderはトレーニング不要のニューラルシンボリックフレームワークで、タスク入力をプログラムにマッピングする。
解析の段階では、Codexは元のプログラミング言語では答えられないタスク入力の一部を特定することができる。
実行段階では、CodexはAPI呼び出しで適切なプロンプトを与えられた万能機能を実行することができる。
論文 参考訳(メタデータ) (2022-10-06T12:55:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。