論文の概要: TestLab: An Intelligent Automated Software Testing Framework
- arxiv url: http://arxiv.org/abs/2306.03602v1
- Date: Tue, 6 Jun 2023 11:45:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 15:44:59.925555
- Title: TestLab: An Intelligent Automated Software Testing Framework
- Title(参考訳): testlab: インテリジェントな自動ソフトウェアテスティングフレームワーク
- Authors: Tiago Dias, Arthur Batista, Eva Maia and Isabel Pra\c{c}a
- Abstract要約: TestLabは、一連のテストメソッドを収集し、人工知能を使ってそれらを自動化しようとする自動ソフトウェアテストフレームワークである。
最初の2つのモジュールは、異なる視点から脆弱性を特定することを目的としており、3番目のモジュールは、テストケースを自動的に生成することで、従来の自動ソフトウェアテストを強化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The prevalence of software systems has become an integral part of modern-day
living. Software usage has increased significantly, leading to its growth in
both size and complexity. Consequently, software development is becoming a more
time-consuming process. In an attempt to accelerate the development cycle, the
testing phase is often neglected, leading to the deployment of flawed systems
that can have significant implications on the users daily activities. This work
presents TestLab, an intelligent automated software testing framework that
attempts to gather a set of testing methods and automate them using Artificial
Intelligence to allow continuous testing of software systems at multiple levels
from different scopes, ranging from developers to end-users. The tool consists
of three modules, each serving a distinct purpose. The first two modules aim to
identify vulnerabilities from different perspectives, while the third module
enhances traditional automated software testing by automatically generating
test cases through source code analysis.
- Abstract(参考訳): ソフトウェアシステムの普及は、現代の生活において不可欠な部分となっている。
ソフトウェアの使用量は大幅に増加し、サイズと複雑さの両方が増加した。
その結果、ソフトウェア開発はより時間を要するプロセスになっています。
開発サイクルを加速しようとすると、テストフェーズは無視されることが多く、欠陥のあるシステムのデプロイがユーザの日々のアクティビティに重大な影響を与えます。
この作業では、一連のテストメソッドを収集し、人工知能を使って自動化しようとするインテリジェントな自動ソフトウェアテストフレームワークであるTestLabを紹介し、開発者からエンドユーザまで、さまざまなスコープからソフトウェアシステムの継続的テストを可能にする。
ツールは3つのモジュールで構成され、それぞれが別々の目的を果たす。
最初の2つのモジュールは異なる視点から脆弱性を特定することを目的としており、3番目のモジュールはソースコード解析を通じてテストケースを自動的に生成することで、従来の自動ソフトウェアテストを強化する。
関連論文リスト
- DevBench: A Comprehensive Benchmark for Software Development [73.62247555595042]
DevBenchは、ソフトウェア開発ライフサイクルのさまざまな段階にわたる大規模言語モデル(LLM)を評価するベンチマークである。
GPT-4-Turboを含む現在のLLMは、DevBench内での課題の解決に失敗している。
本研究は,LLMを現実のプログラミングアプリケーションに展開する上で,現実的な知見を提供するものである。
論文 参考訳(メタデータ) (2024-03-13T15:13:44Z) - MultiTest: Physical-Aware Object Insertion for Testing Multi-sensor
Fusion Perception Systems [23.460181958075566]
マルチセンサー融合(MSF、Multi-Sensor fusion)は、自動運転車や自動ロボットアームなど、多くの安全上重要なタスクや応用に対処する鍵となる技術である。
既存のテスト方法は、主に単一センサーの知覚システムに焦点を当てている。
複雑なMSF知覚システムのための適合性誘導型メタモルフィックテスト手法であるMultiTestを紹介する。
論文 参考訳(メタデータ) (2024-01-25T17:03:02Z) - Constraint-Guided Test Execution Scheduling: An Experience Report at ABB
Robotics [13.50507740574158]
我々は、大規模なテストリポジトリからテスト実行のスケジューリングを自動化することを目標とするDynTestと呼ばれるプロジェクトの結果を示す。
本稿では,ABBロボティクスにおけるテスト実行スケジューリングのための制約ベース最適化モデルの転送に成功した経験と教訓について報告する。
論文 参考訳(メタデータ) (2023-06-02T13:29:32Z) - ConvLab-3: A Flexible Dialogue System Toolkit Based on a Unified Data
Format [88.33443450434521]
タスク指向対話(TOD)システムはデジタルアシスタントとして機能し、フライトの予約やレストランの検索といった様々なタスクを通じてユーザを誘導する。
TODシステムを構築するための既存のツールキットは、データ、モデル、実験環境の包括的な配列を提供するのに不足することが多い。
本稿では,このギャップを埋めるための多面的対話システムツールキットConvLab-3を紹介する。
論文 参考訳(メタデータ) (2022-11-30T16:37:42Z) - MM-TTA: Multi-Modal Test-Time Adaptation for 3D Semantic Segmentation [104.48766162008815]
本稿では,3次元セマンティックセグメンテーションのためのテスト時間適応のマルチモーダル拡張を提案する。
マルチモダリティを最大限に活用できるフレームワークを設計するために、各モダリティは他のモダリティに対して正規化された自己監督信号を提供する。
正規化された擬似ラベルは、多数の多モードテスト時間適応シナリオにおいて安定した自己学習信号を生成する。
論文 参考訳(メタデータ) (2022-04-27T02:28:12Z) - SUPERNOVA: Automating Test Selection and Defect Prevention in AAA Video
Games Using Risk Based Testing and Machine Learning [62.997667081978825]
従来の手法では、成長するソフトウェアシステムではスケールできないため、ビデオゲームのテストはますます難しいタスクになります。
自動化ハブとして機能しながら,テスト選択と欠陥防止を行うシステム SUPERNOVA を提案する。
この直接的な影響は、未公表のスポーツゲームタイトルの55%以上のテスト時間を減らすことが観察されている。
論文 参考訳(メタデータ) (2022-03-10T00:47:46Z) - Artificial Intelligence in Software Testing : Impact, Problems,
Challenges and Prospect [0.0]
この研究は、テストにAIを適用しながら、ソフトウェアテスタが直面する最も大きな課題を認識し、説明することを目的としている。
この記事では、ソフトウェアテストの分野におけるAIの今後の重要な貢献についても提案する。
論文 参考訳(メタデータ) (2022-01-14T10:21:51Z) - Nirikshak: A Clustering Based Autonomous API Testing Framework [0.0]
Nirikshakは、REST APIテストのための自立テストフレームワークである。
REST APIテスト手順の実行において、レベル2の自律性を達成する。
Nirikshakはコミュニティ向けのオープンソースソフトウェアとしてhttps://github.com/yashmahalwal/nirikshakで公開されている。
論文 参考訳(メタデータ) (2021-12-15T18:05:27Z) - Automated User Experience Testing through Multi-Dimensional Performance
Impact Analysis [0.0]
新規な自動ユーザエクスペリエンステスト手法を提案する。
コードの変更が時間単位とシステムテストにどう影響するかを学び、この情報に基づいてユーザエクスペリエンスの変更を推定します。
当社のオープンソースツールは,ランダムフォレストレグレッサで絶対誤差率3.7%を達成した。
論文 参考訳(メタデータ) (2021-04-08T01:18:01Z) - Integrated Benchmarking and Design for Reproducible and Accessible
Evaluation of Robotic Agents [61.36681529571202]
本稿では,開発とベンチマークを統合した再現性ロボット研究の新しい概念について述べる。
このセットアップの中心的なコンポーネントの1つはDuckietown Autolabであり、これは比較的低コストで再現可能な標準化されたセットアップである。
本研究では,インフラを用いて実施した実験の再現性を解析し,ロボットのハードウェアや遠隔実験室間でのばらつきが低いことを示す。
論文 参考訳(メタデータ) (2020-09-09T15:31:29Z) - Beyond Accuracy: Behavioral Testing of NLP models with CheckList [66.42971817954806]
CheckList は NLP モデルをテストするためのタスクに依存しない方法論である。
CheckListには、包括的なテストのアイデアを促進する一般的な言語機能とテストタイプのマトリックスが含まれている。
ユーザスタディでは、CheckListのNLP実践者が2倍の数のテストを作成し、それのないユーザの約3倍のバグを発見しました。
論文 参考訳(メタデータ) (2020-05-08T15:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。