論文の概要: You Can REST Now: Automated REST API Documentation and Testing via LLM-Assisted Request Mutations
- arxiv url: http://arxiv.org/abs/2402.05102v2
- Date: Tue, 15 Jul 2025 19:25:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:10.956252
- Title: You Can REST Now: Automated REST API Documentation and Testing via LLM-Assisted Request Mutations
- Title(参考訳): RESTが使えるようになった: LLM支援のリクエストミューテーションによるREST APIのドキュメンテーションとテストを自動化する
- Authors: Alix Decrop, Xavier Devroey, Mike Papadakis, Pierre-Yves Schobbens, Gilles Perrouin,
- Abstract要約: RESTSpecITは、ドキュメントを推論し、REST APIのブラックボックステストを実行する最初の自動化アプローチです。
当社のアプローチでは,最先端のツールに比べて最小限のユーザ入力が必要になります。
我々は,DeepSeek V3, GPT-4.1, GPT-3.5の3つの最先端LCMを用いてツールの品質を評価する。
- 参考スコア(独自算出の注目度): 8.158964648211002
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: REST APIs are prevalent among web service implementations, easing interoperability through the HTTP protocol. API testers and users exploit the widely adopted OpenAPI Specification (OAS), a machine-readable standard to document REST APIs. However, documenting APIs is a time-consuming and error-prone task, and existing documentation is not always complete, publicly accessible, or up-to-date. This situation limits the efficiency of testing tools and hinders human comprehension. Large Language Models (LLMs) offer the potential to automatically infer API documentation, using their colossal training data. In this paper, we present RESTSpecIT, the first automated approach that infers documentation and performs black-box testing of REST APIs by leveraging LLMs. Our approach requires minimal user input compared to state-of-the-art tools; Given an API name and an LLM access key, RESTSpecIT generates API request seeds and mutates them with data returned by the LLM. The tool then analyzes API responses for documentation inference and testing purposes. RESTSpecIT utilizes an in-context prompt masking strategy, requiring no prior model fine-tuning. We evaluate the quality of our tool with three state-of-the-art LLMs: DeepSeek V3, GPT-4.1, and GPT-3.5. Our evaluation demonstrates that RESTSpecIT can (1) infer documentation with 88.62% of routes and 89.25% of query parameters found on average, (2) discover undocumented API data, (3) operate efficiently (in terms of model costs, requests sent, runtime), and (4) assist REST API testing by uncovering server errors and generating valid OpenAPI Specification inputs for testing tools.
- Abstract(参考訳): REST APIはWebサービス実装で広く使われており、HTTPプロトコルによる相互運用性が向上している。
APIテスタとユーザは広く採用されているOpenAPI Specification(OAS)を利用している。
しかし、ドキュメンテーションAPIは時間がかかり、エラーが発生しやすいタスクであり、既存のドキュメンテーションは必ずしも完成、公開、最新であるとは限らない。
この状況は、テストツールの効率を制限し、人間の理解を妨げる。
大規模言語モデル(LLM)は、その巨大なトレーニングデータを使用して、APIドキュメンテーションを自動的に推論する能力を提供する。
本稿では, LLMを利用してREST APIのドキュメントを推論し, ブラックボックステストを実行する,最初の自動化アプローチであるRESTSpecITを紹介する。
API名とLLMアクセスキーが与えられたら、RESTSpecITはAPIリクエストの種を生成し、LLMによって返されるデータでそれらを変更します。
そして、ツールがドキュメントの推測とテストのためにAPIのレスポンスを分析する。
RESTSpecITはコンテキスト内プロンプトマスキング戦略を利用しており、事前モデルの微調整を必要としない。
我々は,DeepSeek V3, GPT-4.1, GPT-3.5の3つの最先端LCMを用いてツールの品質を評価する。
評価では、(1)ルートの88.62%とクエリパラメータの89.25%でドキュメントを推測し、(2)ドキュメントのないAPIデータを発見し、(3)効率的に運用し(モデルコスト、リクエスト送信、ランタイムの観点から)、(4)サーバーエラーを発見し、テストツールに有効なOpenAPI Specificationインプットを生成することで、REST APIテストを支援する。
関連論文リスト
- LRASGen: LLM-based RESTful API Specification Generation [3.420331911153286]
我々は,Large Language Models (LLM) を用いたAPIの OpenAPI Specification (OAS) 仕様を生成するための新しいアプローチを提案する。
既存のツールやメソッドと比較して、LRASGenは実装が不完全である場合でもOASを生成することができる(部分的なコード、アノテーション/コメントなど)。
LRASGenで作成された仕様は、開発者が提供する仕様よりも平均48.85%の欠落したエンティティをカバーしている。
論文 参考訳(メタデータ) (2025-04-23T15:52:50Z) - Test Amplification for REST APIs via Single and Multi-Agent LLM Systems [1.6499388997661122]
単一エージェントとマルチエージェントのLLMシステムがREST APIテストスイートを増幅する方法について示す。
評価では、APIカバレッジの向上、テスト中のAPIの多数のバグの特定、および両アプローチの計算コストとエネルギー消費に関する洞察を示す。
論文 参考訳(メタデータ) (2025-04-10T20:19:50Z) - AutoRestTest: A Tool for Automated REST API Testing Using LLMs and MARL [46.65963514391019]
AutoRestTestは、Semantic Property Dependency Graph(SPDG)とMARL(Multi-Agent Reinforcement Learning)と大規模言語モデル(LLM)を統合して、効果的なREST APIテストを可能にする新しいツールである。
論文 参考訳(メタデータ) (2025-01-15T05:54:33Z) - LlamaRestTest: Effective REST API Testing with Small Language Models [50.058600784556816]
LlamaRestTestは、2つのLLM(Large Language Models)を使って現実的なテストインプットを生成する新しいアプローチである。
私たちは、GPTを使った仕様強化ツールであるRESTGPTなど、最先端のREST APIテストツールに対して、これを評価しています。
私たちの研究は、REST APIテストにおいて、小さな言語モデルは、大きな言語モデルと同様に、あるいは、より良く機能することができることを示しています。
論文 参考訳(メタデータ) (2025-01-15T05:51:20Z) - APIRL: Deep Reinforcement Learning for REST API Fuzzing [3.053989095162017]
APIRLは、REST APIをテストするための、完全に自動化された深層強化学習ツールである。
APIRLは、現実世界のREST APIの最先端よりも、はるかに多くのバグを見つけることができます。
論文 参考訳(メタデータ) (2024-12-20T15:40:51Z) - A Multi-Agent Approach for REST API Testing with Semantic Graphs and LLM-Driven Inputs [46.65963514391019]
私たちは、REST APIテストに依存性組み込みのマルチエージェントアプローチを採用する最初のブラックボックスフレームワークであるAutoRestTestを紹介します。
MARL(Multi-Agent Reinforcement Learning)とSPDG(Semantic Property Dependency Graph)とLLM(Large Language Models)を統合した。
このアプローチでは、REST APIテストを、API、依存性、パラメータ、バリューという4つのエージェントが協力して、API探索を最適化する、分離可能な問題として扱います。
論文 参考訳(メタデータ) (2024-11-11T16:20:27Z) - A Systematic Evaluation of Large Code Models in API Suggestion: When, Which, and How [53.65636914757381]
API提案は、現代のソフトウェア開発において重要なタスクである。
大規模コードモデル(LCM)の最近の進歩は、API提案タスクにおいて有望であることを示している。
論文 参考訳(メタデータ) (2024-09-20T03:12:35Z) - DeepREST: Automated Test Case Generation for REST APIs Exploiting Deep Reinforcement Learning [5.756036843502232]
本稿では、REST APIを自動テストするための新しいブラックボックスアプローチであるDeepRESTを紹介します。
深い強化学習を活用して、暗黙のAPI制約、すなわちAPIドキュメントから隠された制約を明らかにする。
実験により,提案手法は高いテストカバレッジと故障検出を実現する上で極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-08-16T08:03:55Z) - KAT: Dependency-aware Automated API Testing with Large Language Models [1.7264233311359707]
KAT(Katalon API Testing)は、APIを検証するためのテストケースを自律的に生成する、AI駆動の新たなアプローチである。
実世界の12のサービスを用いたKATの評価は、検証カバレッジを改善し、文書化されていないステータスコードを検出し、これらのサービスの偽陽性を低減できることを示している。
論文 参考訳(メタデータ) (2024-07-14T14:48:18Z) - A Solution-based LLM API-using Methodology for Academic Information Seeking [49.096714812902576]
SoAyは学術情報検索のためのソリューションベースのLLM API利用方法論である。
ソリューションが事前に構築されたAPI呼び出しシーケンスである場合、推論メソッドとしてソリューションを備えたコードを使用する。
その結果、最先端のLLM APIベースのベースラインと比較して34.58-75.99%のパフォーマンス改善が見られた。
論文 参考訳(メタデータ) (2024-05-24T02:44:14Z) - Leveraging Large Language Models to Improve REST API Testing [51.284096009803406]
RESTGPTはAPI仕様を入力として、機械解釈可能なルールを抽出し、仕様内の自然言語記述からサンプルパラメータ値を生成する。
評価の結果、RESTGPTはルール抽出と値生成の両方において既存の技術よりも優れています。
論文 参考訳(メタデータ) (2023-12-01T19:53:23Z) - Exploring Behaviours of RESTful APIs in an Industrial Setting [0.43012765978447565]
これらのAPIが示す振る舞いの例を生成するために,REST APIに共通する一連の動作特性を提案する。
これらの例は、APIの理解を深めるために(i)、自動テストケースのソースとして(ii)の両方に使用することができます。
提案手法は,システム理解と実践者によるテスト生成の源泉として考えられる例を生成することができる。
論文 参考訳(メタデータ) (2023-10-26T11:33:11Z) - Adaptive REST API Testing with Reinforcement Learning [54.68542517176757]
現在のテストツールは効率的な探索機構がなく、全ての操作とパラメータを等しく扱う。
現在のツールは、仕様にレスポンススキーマがない場合や、変種を示す場合に苦労している。
我々は、強化学習を取り入れた適応型REST APIテスト手法を提案し、探索中の操作を優先順位付けする。
論文 参考訳(メタデータ) (2023-09-08T20:27:05Z) - RestGPT: Connecting Large Language Models with Real-World RESTful APIs [44.94234920380684]
ツール強化された大規模言語モデル(LLM)は、幅広いタスクに対処する上で、目覚ましい進歩を遂げている。
複雑な命令に対処する実践的な課題に対処するために,ロバストネスの力を利用するRestGPTを提案する。
RestGPTを十分に評価するために,実世界の2つのシナリオと人手による指示からなる高品質なベンチマークであるRestBenchを提案する。
論文 参考訳(メタデータ) (2023-06-11T08:53:12Z) - Carving UI Tests to Generate API Tests and API Specification [8.743426215048451]
APIレベルのテストは、単体レベルのテストとUIレベルの(あるいはエンドツーエンドの)テストの間で重要な役割を果たす。
既存のAPIテストツールにはAPI仕様が必要である。
WebアプリケーションのAPIレベルのテストを可能にするために,UIテストを活用するアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-24T03:53:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。