論文の概要: Disrupting Test Development with AI Assistants
- arxiv url: http://arxiv.org/abs/2411.02328v1
- Date: Mon, 04 Nov 2024 17:52:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:50:55.572904
- Title: Disrupting Test Development with AI Assistants
- Title(参考訳): AIアシスタントでテスト開発をディスラプトする
- Authors: Vijay Joshi, Iver Band,
- Abstract要約: GitHub Copilot、ChatGPT、TabnineなどのジェネレーティブAI支援コーディングツールは、ソフトウェア開発を大きく変えた。
本稿では、これらのイノベーションが生産性とソフトウェア開発のメトリクスにどのように影響するかを分析する。
- 参考スコア(独自算出の注目度): 1.024113475677323
- License:
- Abstract: Recent advancements in large language models, including GPT-4 and its variants, and Generative AI-assisted coding tools like GitHub Copilot, ChatGPT, and Tabnine, have significantly transformed software development. This paper analyzes how these innovations impact productivity and software test development metrics. These tools enable developers to generate complete software programs with minimal human intervention before deployment. However, thorough review and testing by developers are still crucial. Utilizing the Test Pyramid concept, which categorizes tests into unit, integration, and end-to-end tests, we evaluate three popular AI coding assistants by generating and comparing unit tests for opensource modules. Our findings show that AI-generated tests are of equivalent quality to original tests, highlighting differences in usage and results among the tools. This research enhances the understanding and capabilities of AI-assistant tools in automated testing.
- Abstract(参考訳): GPT-4とその変種、およびGitHub Copilot、ChatGPT、Tabnineのような生成AI支援コーディングツールを含む、大規模な言語モデルの最近の進歩は、ソフトウェア開発を大きく変えた。
本稿では、これらのイノベーションが生産性とソフトウェア開発のメトリクスにどのように影響するかを分析する。
これらのツールは、デプロイ前に人間の介入を最小限に抑えて、完全なソフトウェアプログラムを作成できる。
しかし、開発者による徹底的なレビューとテストは依然として重要です。
ユニットテストを単体テスト、統合テスト、エンドツーエンドテストに分類するTest Pyramidの概念を利用することで、オープンソースモジュールの単体テストの生成と比較によって、一般的な3つのAIコーディングアシスタントを評価します。
その結果、AI生成テストは元のテストと同等の品質であり、ツールの使用状況と結果の相違を強調した。
この研究は、自動テストにおけるAI補助ツールの理解と能力を強化する。
関連論文リスト
- Generative Artificial Intelligence-Supported Pentesting: A Comparison between Claude Opus, GPT-4, and Copilot [44.99833362998488]
GenAIは多くの分野に適用でき、特にサイバーセキュリティに関連がある。
本稿では,ジェネリック汎用のGenAIツールの可能性について分析した。
Opus, GPT-4 from ChatGPT, and Copilot-in augmenting the peretration testing process as defined by the Peretration Testing Execution Standard (PTES)
論文 参考訳(メタデータ) (2025-01-12T22:48:37Z) - Commit0: Library Generation from Scratch [77.38414688148006]
Commit0は、AIエージェントにスクラッチからライブラリを書くよう促すベンチマークである。
エージェントには、ライブラリのAPIを概説する仕様文書と、インタラクティブなユニットテストスイートが提供されている。
Commit0はまた、モデルが生成したコードに対して静的解析と実行フィードバックを受け取る、インタラクティブな環境も提供する。
論文 参考訳(メタデータ) (2024-12-02T18:11:30Z) - Codev-Bench: How Do LLMs Understand Developer-Centric Code Completion? [60.84912551069379]
Code-Development Benchmark (Codev-Bench)は、細粒度で現実世界、リポジトリレベル、開発者中心の評価フレームワークです。
Codev-Agentは、リポジトリのクローリングを自動化し、実行環境を構築し、既存のユニットテストから動的呼び出しチェーンを抽出し、データ漏洩を避けるために新しいテストサンプルを生成するエージェントベースのシステムである。
論文 参考訳(メタデータ) (2024-10-02T09:11:10Z) - ASTER: Natural and Multi-language Unit Test Generation with LLMs [6.259245181881262]
静的解析を組み込んだジェネリックパイプラインを記述し,コンパイル可能な高カバレッジテストケースの生成においてLCMをガイドする。
コードカバレッジとテスト自然性の観点から,生成したテストの品質を評価するための実証的研究を行った。
論文 参考訳(メタデータ) (2024-09-04T21:46:18Z) - The Role of Artificial Intelligence and Machine Learning in Software Testing [0.14896196009851972]
人工知能(AI)と機械学習(ML)は様々な産業に大きな影響を与えている。
ソフトウェア開発ライフサイクル(SDLC)の重要な部分であるソフトウェアテストは、ソフトウェア製品の品質と信頼性を保証する。
本稿では、既存の文献をレビューし、現在のツールや技術を分析し、ケーススタディを提示することで、ソフトウェアテストにおけるAIとMLの役割について考察する。
論文 参考訳(メタデータ) (2024-09-04T13:25:13Z) - AI-powered test automation tools: A systematic review and empirical evaluation [1.3490988186255937]
既存のAIベースのテスト自動化ツールが提供する機能について検討する。
私たちは、AI機能がテストの有効性と効率にどのように役立つかを実証的に評価します。
AIベースのテストツールにおけるAI機能の制限についても検討する。
論文 参考訳(メタデータ) (2024-08-31T10:10:45Z) - Leveraging Large Language Models for Enhancing the Understandability of Generated Unit Tests [4.574205608859157]
我々は,検索ベースのソフトウェアテストと大規模言語モデルを組み合わせたUTGenを導入し,自動生成テストケースの理解性を向上する。
UTGenテストケースで課題に取り組む参加者は、最大33%のバグを修正し、ベースラインテストケースと比較して最大20%の時間を使用できます。
論文 参考訳(メタデータ) (2024-08-21T15:35:34Z) - A System for Automated Unit Test Generation Using Large Language Models and Assessment of Generated Test Suites [1.4563527353943984]
大規模言語モデル(LLM)はソフトウェア開発の様々な側面に適用されている。
Javaプロジェクトのテストスイートを生成する自動化システムであるAgoneTestを紹介します。
論文 参考訳(メタデータ) (2024-08-14T23:02:16Z) - A Multi-Year Grey Literature Review on AI-assisted Test Automation [46.97326049485643]
テスト自動化(TA)技術は、ソフトウェアエンジニアリングの品質保証には不可欠だが、制限に直面している。
業界でAIが広く使われていることを考えると、真実の情報源はグレー文学だけでなく、専門家の心にも当てはまる。
この研究は、グレーの文献を調査し、AIがTAでどのように採用されているかを調査し、解決する問題、そのソリューション、利用可能なツールに焦点を当てる。
論文 参考訳(メタデータ) (2024-08-12T15:26:36Z) - From Static Benchmarks to Adaptive Testing: Psychometrics in AI Evaluation [60.14902811624433]
本稿では,静的評価手法から適応テストへのパラダイムシフトについて論じる。
これには、ベンチマークで各テスト項目の特性と価値を推定し、リアルタイムでアイテムを動的に調整することが含まれる。
我々は、AI評価にサイコメトリックを採用する現在のアプローチ、アドバンテージ、そして根底にある理由を分析します。
論文 参考訳(メタデータ) (2023-06-18T09:54:33Z) - Integrated Benchmarking and Design for Reproducible and Accessible
Evaluation of Robotic Agents [61.36681529571202]
本稿では,開発とベンチマークを統合した再現性ロボット研究の新しい概念について述べる。
このセットアップの中心的なコンポーネントの1つはDuckietown Autolabであり、これは比較的低コストで再現可能な標準化されたセットアップである。
本研究では,インフラを用いて実施した実験の再現性を解析し,ロボットのハードウェアや遠隔実験室間でのばらつきが低いことを示す。
論文 参考訳(メタデータ) (2020-09-09T15:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。