論文の概要: Towards Human-Like Automated Test Generation: Perspectives from
Cognition and Problem Solving
- arxiv url: http://arxiv.org/abs/2103.04749v1
- Date: Mon, 8 Mar 2021 13:43:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:23:14.346484
- Title: Towards Human-Like Automated Test Generation: Perspectives from
Cognition and Problem Solving
- Title(参考訳): 人間ライクな自動テスト生成に向けて : 認知と問題解決からの視点
- Authors: Eduard Enoiu, Robert Feldt
- Abstract要約: テスターの認知過程を特定するための認知科学に基づくフレームワークを提案する。
私たちの目標は、人間がテストケースを作成する方法を模倣し、人間のような自動テスト生成システムを設計することです。
- 参考スコア(独自算出の注目度): 13.541347853480705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated testing tools typically create test cases that are different from
what human testers create. This often makes the tools less effective, the
created tests harder to understand, and thus results in tools providing less
support to human testers. Here, we propose a framework based on cognitive
science and, in particular, an analysis of approaches to problem-solving, for
identifying cognitive processes of testers. The framework helps map test design
steps and criteria used in human test activities and thus to better understand
how effective human testers perform their tasks. Ultimately, our goal is to be
able to mimic how humans create test cases and thus to design more human-like
automated test generation systems. We posit that such systems can better
augment and support testers in a way that is meaningful to them.
- Abstract(参考訳): 自動テストツールは一般的に、人間のテスタが作るものとは異なるテストケースを生成する。
これにより、ツールの効率が低下し、テストの作成が難しくなり、結果として、人間テスタに対するサポートが低下する。
本稿では,認知科学に基づく枠組み,特に問題解決へのアプローチの分析を行い,テスターの認知過程を識別する手法を提案する。
このフレームワークは、ヒューマンテスト活動で使用されるテスト設計ステップと基準をマッピングし、ヒューマンテスターがタスクを実行する方法をよりよく理解するのに役立ちます。
最終的に私たちの目標は、人間がテストケースを作成する方法を模倣し、人間のような自動テスト生成システムを設計できるようにすることです。
このようなシステムは、テスターを有意義な方法で強化し、サポートできると考えています。
関連論文リスト
- Disrupting Test Development with AI Assistants [1.024113475677323]
GitHub Copilot、ChatGPT、TabnineなどのジェネレーティブAI支援コーディングツールは、ソフトウェア開発を大きく変えた。
本稿では、これらのイノベーションが生産性とソフトウェア開発のメトリクスにどのように影響するかを分析する。
論文 参考訳(メタデータ) (2024-11-04T17:52:40Z) - Leveraging Large Language Models for Enhancing the Understandability of Generated Unit Tests [4.574205608859157]
我々は,検索ベースのソフトウェアテストと大規模言語モデルを組み合わせたUTGenを導入し,自動生成テストケースの理解性を向上する。
UTGenテストケースで課題に取り組む参加者は、最大33%のバグを修正し、ベースラインテストケースと比較して最大20%の時間を使用できます。
論文 参考訳(メタデータ) (2024-08-21T15:35:34Z) - A Comprehensive Study on Automated Testing with the Software Lifecycle [0.6144680854063939]
この研究は、自動テストがソフトウェアの品質を評価するのをいかに簡単にするか、手動テストと比べてどのように時間を節約するか、そして利点と欠点の観点から、それぞれのテストとどのように違うかを調べる。
ソフトウェアアプリケーションのテストプロセスは、単純化され、特定のテスト状況に合わせてカスタマイズされ、自動テストツールを使用してうまく実行される。
論文 参考訳(メタデータ) (2024-05-02T06:30:37Z) - Survey of Computerized Adaptive Testing: A Machine Learning Perspective [66.26687542572974]
コンピュータ適応テスト (Computerized Adaptive Testing, CAT) は、試験の熟練度を評価するための効率的で調整された方法である。
本稿では,この適応テスト手法に対する新たな視点を提示し,機械学習に着目したCATに関する調査を行うことを目的とする。
論文 参考訳(メタデータ) (2024-03-31T15:09:47Z) - Beyond Static Evaluation: A Dynamic Approach to Assessing AI Assistants' API Invocation Capabilities [48.922660354417204]
人間の関与なしにアシスタントのAPIコール能力を評価するために,自動動的評価(Automated Dynamic Evaluation, AutoDE)を提案する。
この枠組みでは,人間と機械の相互作用において,真の人間の会話パターンを忠実に反映するように努力する。
論文 参考訳(メタデータ) (2024-03-17T07:34:12Z) - Software Testing and Code Refactoring: A Survey with Practitioners [3.977213079821398]
本研究の目的は,ソフトウェアテストのコンテキストにおいて,このプラクティスのメリットと限界を理解するために,ソフトウェアテスト専門家がコードを扱う方法を検討することである。
ソフトウェアテストの文脈では、自動テストのメンテナンスのサポートや、テストチームのパフォーマンス向上など、いくつかのメリットがある、と私たちは結論付けました。
本研究は,テスト専門家が自動テストのコードに実装することの重要性について議論し,コーディング能力の向上を可能にするものである。
論文 参考訳(メタデータ) (2023-10-03T01:07:39Z) - Can a Chatbot Support Exploratory Software Testing? Preliminary Results [0.9249657468385781]
探索テストはアジャイルチームにおける事実上のアプローチです。
本稿では,ソフトウェアアプリケーションの探索テストを実施しながらテスタを支援するBotExpTestを提案する。
インスタントメッセージングソーシャルプラットフォームであるDiscord上にBotExpTestを実装しました。
予備的な分析は、BotExpTestが同じようなアプローチと同じくらい効果的であることを示し、テスタがさまざまなバグを明らかにするのに役立つことを示唆している。
論文 参考訳(メタデータ) (2023-07-11T21:11:21Z) - From Static Benchmarks to Adaptive Testing: Psychometrics in AI Evaluation [60.14902811624433]
本稿では,静的評価手法から適応テストへのパラダイムシフトについて論じる。
これには、ベンチマークで各テスト項目の特性と価値を推定し、リアルタイムでアイテムを動的に調整することが含まれる。
我々は、AI評価にサイコメトリックを採用する現在のアプローチ、アドバンテージ、そして根底にある理由を分析します。
論文 参考訳(メタデータ) (2023-06-18T09:54:33Z) - BiasTestGPT: Using ChatGPT for Social Bias Testing of Language Models [73.29106813131818]
テスト文は限られた手動テンプレートから生成されるか、高価なクラウドソーシングを必要とするため、現時点ではバイアステストは煩雑である。
ソーシャルグループと属性の任意のユーザ指定の組み合わせを考慮し、テスト文の制御可能な生成にChatGPTを使うことを提案する。
本稿では,HuggingFace上にホストされているオープンソースの総合的バイアステストフレームワーク(BiasTestGPT)について紹介する。
論文 参考訳(メタデータ) (2023-02-14T22:07:57Z) - Towards Informed Design and Validation Assistance in Computer Games
Using Imitation Learning [65.12226891589592]
本稿では,自動ゲーム検証とテストのための新しいアプローチを提案する。
本手法は,データ駆動型模倣学習技術を活用し,時間と労力をほとんど必要とせず,機械学習やプログラミングの知識も必要としない。
論文 参考訳(メタデータ) (2022-08-15T11:08:44Z) - SUPERNOVA: Automating Test Selection and Defect Prevention in AAA Video
Games Using Risk Based Testing and Machine Learning [62.997667081978825]
従来の手法では、成長するソフトウェアシステムではスケールできないため、ビデオゲームのテストはますます難しいタスクになります。
自動化ハブとして機能しながら,テスト選択と欠陥防止を行うシステム SUPERNOVA を提案する。
この直接的な影響は、未公表のスポーツゲームタイトルの55%以上のテスト時間を減らすことが観察されている。
論文 参考訳(メタデータ) (2022-03-10T00:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。