論文の概要: A Laboratory Experiment on Using Different Financial-Incentivization Schemes in Software-Engineering Experimentation
- arxiv url: http://arxiv.org/abs/2202.10985v7
- Date: Wed, 31 Jul 2024 11:47:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-01 20:47:15.707471
- Title: A Laboratory Experiment on Using Different Financial-Incentivization Schemes in Software-Engineering Experimentation
- Title(参考訳): ソフトウェア工学実験における金融インセンティブの異なる手法を用いた実験室実験
- Authors: Dmitri Bershadskyy, Jacob Krüger, Gül Çalıklı, Siegmar Otto, Sarah Zabel, Jannik Greif, Robert Heyer,
- Abstract要約: 金融インセンティブの異なるスキームが開発者に与える影響について検討する。
提案手法は,ソフトウェア工学実験における参加者のパフォーマンスに影響を及ぼす可能性が示唆された。
- 参考スコア(独自算出の注目度): 1.7291678002736095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In software-engineering research, many empirical studies are conducted with open-source or industry developers. However, in contrast to other research communities like economics or psychology, only few experiments use financial incentives (i.e., paying money) as a strategy to motivate participants' behavior and reward their performance. The most recent version of the SIGSOFT Empirical Standards mentions payouts only for increasing participation in surveys, but not for mimicking real-world motivations and behavior in experiments. Within this article, we report a controlled experiment in which we tackled this gap by studying how different financial incentivization schemes impact developers. For this purpose, we first conducted a survey on financial incentives used in the real-world, based on which we designed three incentivization schemes: (1) a performance-dependent scheme that employees prefer, (2) a scheme that is performance-independent, and (3) a scheme that mimics open-source development. Then, using a between-subject experimental design, we explored how these three schemes impact participants' performance. Our findings indicate that the different schemes can impact participants' performance in software-engineering experiments. Due to the small sample sizes, our results are not statistically significant, but we can still observe clear tendencies. Our contributions help understand the impact of financial incentives on participants in experiments as well as real-world scenarios, guiding researchers in designing experiments and organizations in compensating developers.
- Abstract(参考訳): ソフトウェア工学の研究では、多くの経験的研究がオープンソースや業界開発者によって行われている。
しかし、経済学や心理学のような他の研究コミュニティとは対照的に、参加者の行動を動機づけ、パフォーマンスに報いる戦略として金銭的インセンティブ(すなわち、お金を払うこと)を使用する実験はごくわずかである。
最新のSIGSOFT Empirical Standardsでは、調査への参加の増加のためだけに、実際のモチベーションや実験の振る舞いを模倣するためではなく、支払いについて言及している。
本稿では、金融インセンティブの異なるスキームが開発者に与える影響を研究することによって、このギャップに対処する制御実験を報告する。
そこで我々はまず,(1)従業員が好むパフォーマンス依存型スキーム,(2)パフォーマンス非依存型スキーム,(3)オープンソース開発を模倣するスキームの3つのインセンティブを設計した実世界の金融インセンティブに関する調査を行った。
そして,これらの3つのスキームが参加者のパフォーマンスに与える影響について検討した。
提案手法は,ソフトウェア工学実験における参加者のパフォーマンスに影響を及ぼす可能性が示唆された。
サンプルサイズが小さいため、統計的に有意ではないが、それでも明らかな傾向が観察できる。
私たちのコントリビューションは、ファイナンシャルインセンティブが実験参加者や実世界のシナリオに与える影響を理解し、研究者が実験を設計し、開発者を補償する組織を指導する上で役立ちます。
関連論文リスト
- Impact of Usability Mechanisms: A Family of Experiments on Efficiency, Effectiveness and User Satisfaction [0.5419296578793327]
ベースライン実験における結果の精度と一般化を高めるために、3つの実験のファミリーを用いる。
システムのユーザビリティは, 効率, 有効性, ユーザ満足度に関して大きく向上していると考えられる。
論文 参考訳(メタデータ) (2024-08-22T21:23:18Z) - On (Mis)perceptions of testing effectiveness: an empirical study [1.8026347864255505]
本研究の目的は, 異なる手法の欠陥検出の有効性の認識が, 先行経験の欠如において, 実際の有効性とどの程度一致しているかを明らかにすることである。
本研究は,2つのテスト手法とコードレビュー手法を適用した学生を対象に,制御実験を行った。
実験の最後には、どのテクニックが最も効果的かを調べる調査が行われた。
再現された研究の結果は、元の研究の結果を確認し、参加者の認識は、テクニックの複雑さや嗜好についての意見ではなく、そのテクニックを適用したと考えることについての意見に基づいているかもしれないことを示唆している。
論文 参考訳(メタデータ) (2024-02-11T14:50:01Z) - Conducting A/B Experiments with a Scalable Architecture [0.6990493129893112]
A/B実験は、2つの異なる実験グループにおいて1つ以上の変数を変更する効果を比較するために一般的に用いられる。
ドメインに依存しないA/B実験を支援するソフトウェアアーキテクチャを開発するための4つの基本的アプローチを提案する。
論文 参考訳(メタデータ) (2023-09-23T18:38:28Z) - PyExperimenter: Easily distribute experiments and track results [63.871474825689134]
PyExperimenterは、アルゴリズムの実験的な研究結果のセットアップ、ドキュメンテーション、実行、およびその後の評価を容易にするツールである。
人工知能の分野で研究者が使用することを意図しているが、それらに限定されていない。
論文 参考訳(メタデータ) (2023-01-16T10:43:02Z) - Benchopt: Reproducible, efficient and collaborative optimization
benchmarks [67.29240500171532]
Benchoptは、機械学習で最適化ベンチマークを自動化、再生、公開するためのフレームワークである。
Benchoptは実験を実行、共有、拡張するための既製のツールを提供することで、コミュニティのベンチマークを簡単にする。
論文 参考訳(メタデータ) (2022-06-27T16:19:24Z) - Towards Continuous Compounding Effects and Agile Practices in
Educational Experimentation [2.7094829962573304]
本稿では,異なる実験過程を分類する枠組みを定義する。
次世代の教育技術の成功は、プロセスの完全な集合を取り入れることによって後押しされる。
論文 参考訳(メタデータ) (2021-11-17T13:10:51Z) - The Efficiency Misnomer [50.69516433266469]
我々は、共通のコスト指標、それらの利点とデメリット、そしてそれらが相互に矛盾する方法について論じる。
コストインジケータの不完全な報告が、どのようにして部分的な結論をもたらすかを示し、異なるモデルの実践的考察の曖昧さや不完全さを図示する。
論文 参考訳(メタデータ) (2021-10-25T12:48:07Z) - StudyMe: A New Mobile App for User-Centric N-of-1 Trials [68.8204255655161]
N-of-1臨床試験は、個人が個人の健康目標に対する介入の効果を体系的に評価できる多種多様な自己実験である。
StudyMeはオープンソースのモバイルアプリで、https://play.google.com/store/apps/details?id=health.studyu.me.comから無料で利用できる。
論文 参考訳(メタデータ) (2021-07-31T20:43:36Z) - Scaling up Search Engine Audits: Practical Insights for Algorithm
Auditing [68.8204255655161]
異なる地域に数百の仮想エージェントを配置した8つの検索エンジンの実験を行った。
複数のデータ収集にまたがる研究インフラの性能を実証する。
仮想エージェントは,アルゴリズムの性能を長時間にわたって監視するための,有望な場所である,と結論付けている。
論文 参考訳(メタデータ) (2021-06-10T15:49:58Z) - On Course, But Not There Yet: Enterprise Architecture Conformance and
Benefits in Systems Development [1.5071503188049546]
エンタープライズアーキテクチャ(EA)が個々のシステム開発プロジェクトと組織全体に対してもたらすメリットについて、さまざまな主張がなされています。
本稿では,これらの主張を実証的に検証するために実施された調査(n=293)の統計的知見について述べる。
論文 参考訳(メタデータ) (2020-08-23T14:00:55Z) - Cost-Sensitive Portfolio Selection via Deep Reinforcement Learning [100.73223416589596]
深層強化学習を用いたコスト依存型ポートフォリオ選択手法を提案する。
具体的には、価格系列パターンと資産相関の両方を抽出するために、新しい2ストリームポートフォリオポリシーネットワークを考案した。
蓄積したリターンを最大化し、強化学習によるコストの両立を抑えるため、新たなコスト感受性報酬関数が開発された。
論文 参考訳(メタデータ) (2020-03-06T06:28:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。