論文の概要: Nirikshak: An Autonomous API Testing Framework
- arxiv url: http://arxiv.org/abs/2112.08315v2
- Date: Thu, 2 Nov 2023 00:08:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 18:48:26.912316
- Title: Nirikshak: An Autonomous API Testing Framework
- Title(参考訳): nirikshak: 自律的なapiテスティングフレームワーク
- Authors: Yash Mahalwal, Pawel Pratyush, Yogesh Poonia
- Abstract要約: 品質保証(QA)は製品開発において重要である。
自動メソッドの出現にもかかわらず、特にREST API向けのソフトウェアテストは、しばしば反復的なタスクを伴います。
データサイエンスの進歩により、自己回復テストフレームワークの概念が出現する。
このフレームワークは、ユーザの介入を最小限に抑え、REST APIテスト手順全体を自律的に実行するように設計されています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Quality Assurance (QA) is pivotal in product development. Despite the advent
of automated methods, software testing, especially for REST APIs, often
involves repetitive tasks. It's notable that more resources are allocated to
script tests than in detecting and addressing the actual bugs. Conventional
testing methods also struggle to adapt seamlessly to software updates. However,
with strides in data science, the concept of a self-reliant testing framework
emerges. This framework aims for minimal user intervention and is designed to
autonomously execute the entire REST API testing procedure. Our research is
centered around realizing this groundbreaking framework.
- Abstract(参考訳): 品質保証(QA)は製品開発において重要である。
自動メソッドの出現にもかかわらず、特にREST API向けのソフトウェアテストは、しばしば反復的なタスクを伴います。
実際のバグの検出と対処よりも、スクリプトテストに多くのリソースが割り当てられていることは注目に値する。
従来のテスト方法は、ソフトウェアアップデートへのシームレスな適応にも苦労している。
しかし、データサイエンスの進歩とともに、自己依存テストフレームワークの概念が現れます。
このフレームワークは、ユーザの介入を最小限に抑え、REST APIテスト手順全体を自律的に実行するように設計されています。
私たちの研究は、この画期的な枠組みの実現に重点を置いています。
関連論文リスト
- COTS: Connected OpenAPI Test Synthesis for RESTful Applications [0.0]
OpenAPI仕様のための(i)ドメイン固有言語を導入し、(ii)方法論をサポートするツールを導入します。
私たちのツールはCOTSと呼ばれ、(ランダムに)モデルベースのテスト実行を生成し、ソフトウェア欠陥を報告します。
論文 参考訳(メタデータ) (2024-04-30T15:12:31Z) - Automating REST API Postman Test Cases Using LLM [0.0]
本稿では,大規模言語モデルを用いたテストケースの自動生成手法の探索と実装について述べる。
この方法論は、テストケース生成の効率性と有効性を高めるために、Open AIの使用を統合する。
この研究で開発されたモデルは、手作業で収集したポストマンテストケースやさまざまなRest APIのインスタンスを使ってトレーニングされている。
論文 参考訳(メタデータ) (2024-04-16T15:53:41Z) - Adaptive REST API Testing with Reinforcement Learning [54.68542517176757]
現在のテストツールは効率的な探索機構がなく、全ての操作とパラメータを等しく扱う。
現在のツールは、仕様にレスポンススキーマがない場合や、変種を示す場合に苦労している。
我々は、強化学習を取り入れた適応型REST APIテスト手法を提案し、探索中の操作を優先順位付けする。
論文 参考訳(メタデータ) (2023-09-08T20:27:05Z) - Towards Automatic Generation of Amplified Regression Test Oracles [44.45138073080198]
回帰テストオラクルを増幅するためのテストオラクル導出手法を提案する。
このアプローチはテスト実行中にオブジェクトの状態を監視し、以前のバージョンと比較して、SUTの意図した振る舞いに関連する変更を検出する。
論文 参考訳(メタデータ) (2023-07-28T12:38:44Z) - TestLab: An Intelligent Automated Software Testing Framework [0.0]
TestLabは、一連のテストメソッドを収集し、人工知能を使ってそれらを自動化しようとする自動ソフトウェアテストフレームワークである。
最初の2つのモジュールは、異なる視点から脆弱性を特定することを目的としており、3番目のモジュールは、テストケースを自動的に生成することで、従来の自動ソフトウェアテストを強化する。
論文 参考訳(メタデータ) (2023-06-06T11:45:22Z) - Constraint-Guided Test Execution Scheduling: An Experience Report at ABB
Robotics [13.50507740574158]
我々は、大規模なテストリポジトリからテスト実行のスケジューリングを自動化することを目標とするDynTestと呼ばれるプロジェクトの結果を示す。
本稿では,ABBロボティクスにおけるテスト実行スケジューリングのための制約ベース最適化モデルの転送に成功した経験と教訓について報告する。
論文 参考訳(メタデータ) (2023-06-02T13:29:32Z) - ALBench: A Framework for Evaluating Active Learning in Object Detection [102.81795062493536]
本稿では、オブジェクト検出におけるアクティブラーニングを評価するために、ALBenchという名前のアクティブラーニングベンチマークフレームワークをコントリビュートする。
自動深層モデルトレーニングシステム上で開発されたこのALBenchフレームワークは、使いやすく、さまざまなアクティブな学習アルゴリズムと互換性があり、同じトレーニングおよびテストプロトコルを保証する。
論文 参考訳(メタデータ) (2022-07-27T07:46:23Z) - SUPERNOVA: Automating Test Selection and Defect Prevention in AAA Video
Games Using Risk Based Testing and Machine Learning [62.997667081978825]
従来の手法では、成長するソフトウェアシステムではスケールできないため、ビデオゲームのテストはますます難しいタスクになります。
自動化ハブとして機能しながら,テスト選択と欠陥防止を行うシステム SUPERNOVA を提案する。
この直接的な影響は、未公表のスポーツゲームタイトルの55%以上のテスト時間を減らすことが観察されている。
論文 参考訳(メタデータ) (2022-03-10T00:47:46Z) - Beyond Accuracy: Behavioral Testing of NLP models with CheckList [66.42971817954806]
CheckList は NLP モデルをテストするためのタスクに依存しない方法論である。
CheckListには、包括的なテストのアイデアを促進する一般的な言語機能とテストタイプのマトリックスが含まれている。
ユーザスタディでは、CheckListのNLP実践者が2倍の数のテストを作成し、それのないユーザの約3倍のバグを発見しました。
論文 参考訳(メタデータ) (2020-05-08T15:48:31Z) - Dynamic Causal Effects Evaluation in A/B Testing with a Reinforcement
Learning Framework [68.96770035057716]
A/Bテスト(A/B Testing)は、新しい製品を製薬、技術、伝統産業の古い製品と比較するビジネス戦略である。
本稿では,オンライン実験においてA/Bテストを実施するための強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-05T10:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。