論文の概要: Gamifying Testing in IntelliJ: A Replicability Study
- arxiv url: http://arxiv.org/abs/2504.19294v1
- Date: Sun, 27 Apr 2025 16:17:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.219933
- Title: Gamifying Testing in IntelliJ: A Replicability Study
- Title(参考訳): IntelliJのゲーミフィケーションテスト:リプリケータビリティスタディ
- Authors: Philipp Straubinger, Tommaso Fulcini, Giacomo Garaccione, Luca Ardito, Gordon Fraser,
- Abstract要約: ゲーミフィケーションは、ソフトウェアテストのような従来未完成のタスクにおいて、モチベーションとパフォーマンスを高める新しいテクニックである。
これまでの研究によると、ゲーミフィケーションされたシステムは、テスタに成果とフィードバックを提供することで、ソフトウェアテストプロセスを改善する可能性がある。
本稿では,IntelliJ IDEAのゲーミフィケーションプラグインであるIntelliGameの効果を再現し,検証することを目的としている。
- 参考スコア(独自算出の注目度): 8.689182960457137
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Gamification is an emerging technique to enhance motivation and performance in traditionally unengaging tasks like software testing. Previous studies have indicated that gamified systems have the potential to improve software testing processes by providing testers with achievements and feedback. However, further evidence of these benefits across different environments, programming languages, and participant groups is required. This paper aims to replicate and validate the effects of IntelliGame, a gamification plugin for IntelliJ IDEA to engage developers in writing and executing tests. The objective is to generalize the benefits observed in earlier studies to new contexts, i.e., the TypeScript programming language and a larger participant pool. The replicability study consists of a controlled experiment with 174 participants, divided into two groups: one using IntelliGame and one with no gamification plugin. The study employed a two-group experimental design to compare testing behavior, coverage, mutation scores, and participant feedback between the groups. Data was collected through test metrics and participant surveys, and statistical analysis was performed to determine the statistical significance. Participants using IntelliGame showed higher engagement and productivity in testing practices than the control group, evidenced by the creation of more tests, increased frequency of executions, and enhanced utilization of testing tools. This ultimately led to better code implementations, highlighting the effectiveness of gamification in improving functional outcomes and motivating users in their testing endeavors. The replication study confirms that gamification, through IntelliGame, positively impacts software testing behavior and developer engagement in coding tasks.
- Abstract(参考訳): ゲーミフィケーションは、ソフトウェアテストのような従来未完成のタスクにおいて、モチベーションとパフォーマンスを高める新しいテクニックである。
これまでの研究によると、ゲーミフィケーションされたシステムは、テスタに成果とフィードバックを提供することで、ソフトウェアテストプロセスを改善する可能性がある。
しかし、これらの利点のさらなる証拠は、異なる環境、プログラミング言語、参加者グループにまたがって必要である。
本稿では,IntelliJ IDEAのゲーミフィケーションプラグインであるIntelliGameの効果を再現し,検証することを目的としている。
目的は、以前の研究で見られたメリットを、新しいコンテキスト、すなわちTypeScriptプログラミング言語とより大きな参加者プールに一般化することにある。
再現性調査は174人の参加者によるコントロールされた実験で構成されており、IntelliGameとゲーミフィケーションプラグインなしの2つのグループに分けられている。
この研究は、テスト行動、カバレッジ、突然変異スコア、そしてグループ間の参加者のフィードバックを比較するために、2つのグループの実験設計を採用した。
データは,テスト指標および参加者調査を通じて収集され,統計学的意義を決定するために統計分析を行った。
IntelliGameを使用する参加者は、コントロールグループよりも高いエンゲージメントと生産性を示し、より多くのテストの作成、実行頻度の増加、テストツールの利用率の向上が証明された。
この結果、最終的により良いコード実装が実現し、機能的な成果を改善し、テスト作業でユーザを動機付けるためのゲーミフィケーションの有効性を強調した。
レプリケーション調査は、IntelliGameによるゲーミフィケーションが、コーディングタスクにおけるソフトウェアテストの振る舞いと開発者の関与に肯定的な影響を及ぼすことを確認した。
関連論文リスト
- On the Mistaken Assumption of Interchangeable Deep Reinforcement Learning Implementations [53.0667196725616]
ディープ・強化学習(Deep Reinforcement Learning, DRL)とは、エージェントがニューラルネットワークを使って特定の環境でどのアクションをとるかを学ぶ人工知能のパラダイムである。
DRLは最近、ドライビングシミュレーター、3Dロボット制御、マルチプレイヤー・オンライン・バトル・アリーナ・ビデオゲームといった複雑な環境を解くことで注目を集めている。
現在、Deep Q-Network (DQN) や Proximal Policy Optimization (PPO) アルゴリズムのような、これらのエージェントを訓練する最先端のアルゴリズムの実装が数多く存在する。
論文 参考訳(メタデータ) (2025-03-28T16:25:06Z) - Triangulating LLM Progress through Benchmarks, Games, and Cognitive Tests [89.09172401497213]
本稿では,大規模質問応答ベンチマーク,インタラクティブゲーム,認知テストの3つの評価パラダイムについて検討する。
効果的な言語使用に不可欠な認知能力を測定するための,対象とするテストスイートをコンパイルする。
分析の結果,対話型ゲームは判別モデルにおける標準ベンチマークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-20T08:36:58Z) - ViUniT: Visual Unit Tests for More Robust Visual Programming [104.55763189099125]
モデルが正しく答えると、不正なプログラムを33%生成します。
自動単体テストを生成することで、視覚プログラムの信頼性を向上させるためのフレームワークであるVisual Unit Testing (ViUniT)を提案する。
論文 参考訳(メタデータ) (2024-12-12T01:36:18Z) - Which Combination of Test Metrics Can Predict Success of a Software Project? A Case Study in a Year-Long Project Course [1.553083901660282]
テストはソフトウェア開発プロジェクトの成功を保証する上で重要な役割を担います。
種々のテストが機能的適合性に与える影響を定量化できるかどうかを検討する。
論文 参考訳(メタデータ) (2024-08-22T04:23:51Z) - Leveraging Large Language Models for Enhancing the Understandability of Generated Unit Tests [4.574205608859157]
我々は,検索ベースのソフトウェアテストと大規模言語モデルを組み合わせたUTGenを導入し,自動生成テストケースの理解性を向上する。
UTGenテストケースで課題に取り組む参加者は、最大33%のバグを修正し、ベースラインテストケースと比較して最大20%の時間を使用できます。
論文 参考訳(メタデータ) (2024-08-21T15:35:34Z) - Self-Training with Pseudo-Label Scorer for Aspect Sentiment Quad Prediction [54.23208041792073]
Aspect Sentiment Quad Prediction (ASQP) は、与えられたレビューに対して全てのクワッド(アスペクト項、アスペクトカテゴリー、意見項、感情極性)を予測することを目的としている。
ASQPタスクにおける重要な課題はラベル付きデータの不足であり、既存のメソッドのパフォーマンスを制限している。
そこで我々は,擬似ラベルスコアラーを用いた自己学習フレームワークを提案し,レビューと擬似ラベルの一致をスコアラーが評価する。
論文 参考訳(メタデータ) (2024-06-26T05:30:21Z) - Gamified GUI testing with Selenium in the IntelliJ IDE: A Prototype Plugin [0.559239450391449]
本稿では,IntelliJ IDEA用のガミフィケーションプラグインのプロトタイプであるGIPGUTについて述べる。
このプラグインは、達成、報酬、プロファイルのカスタマイズを通じて、単調で退屈なタスクにテスタのエンゲージメントを高める。
その結果,ゲーミフィケーション要素の高利用性と肯定的な受容性が示唆された。
論文 参考訳(メタデータ) (2024-03-14T20:11:11Z) - InterEvo-TR: Interactive Evolutionary Test Generation With Readability
Assessment [1.6874375111244329]
テスタによるインタラクティブな可読性評価をEvoSuiteに組み込むことを提案する。
提案手法であるInterEvo-TRは,検索中に異なるタイミングでテスターと対話する。
その結果,中間結果の選択・提示戦略は可読性評価に有効であることが示唆された。
論文 参考訳(メタデータ) (2024-01-13T13:14:29Z) - Improving Testing Behavior by Gamifying IntelliJ [13.086283144520513]
一般的なIntelliJ Java統合開発環境用のガミフィケーションプラグインであるIntelliGameを紹介します。
IntelliGameは、マルチレベルの達成システムを使用して、肯定的なテスト行動に対して開発者に報奨を与える。
49人の参加者によるコントロールされた実験では、IntelliGameによって引き起こされるテスト動作にかなりの違いが示されている。
論文 参考訳(メタデータ) (2023-10-17T11:40:55Z) - Benchopt: Reproducible, efficient and collaborative optimization
benchmarks [67.29240500171532]
Benchoptは、機械学習で最適化ベンチマークを自動化、再生、公開するためのフレームワークである。
Benchoptは実験を実行、共有、拡張するための既製のツールを提供することで、コミュニティのベンチマークを簡単にする。
論文 参考訳(メタデータ) (2022-06-27T16:19:24Z) - StudyMe: A New Mobile App for User-Centric N-of-1 Trials [68.8204255655161]
N-of-1臨床試験は、個人が個人の健康目標に対する介入の効果を体系的に評価できる多種多様な自己実験である。
StudyMeはオープンソースのモバイルアプリで、https://play.google.com/store/apps/details?id=health.studyu.me.comから無料で利用できる。
論文 参考訳(メタデータ) (2021-07-31T20:43:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。