論文の概要: What's DAT? Three Case Studies of Measuring Software Development Productivity at Meta With Diff Authoring Time
- arxiv url: http://arxiv.org/abs/2503.10977v1
- Date: Fri, 14 Mar 2025 00:50:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:08:41.976769
- Title: What's DAT? Three Case Studies of Measuring Software Development Productivity at Meta With Diff Authoring Time
- Title(参考訳): DATとは何か? Diffオーサリング時間を用いたメタにおけるソフトウェア開発生産性測定のケーススタディ
- Authors: Moritz Beller, Amanda Park, Karim Nakad, Akshay Patel, Sarita Mohanty, Ford Garberson, Ian G. Malone, Vaishali Garg, Henri Verroken, Andrew Kennedy, Pavel Avgustinov,
- Abstract要約: Diff Authoring Time (DAT)は、ソフトウェア開発の生産性を測定するための強力な、しかし概念的にはシンプルなアプローチです。
DATを観察研究、調査、可視化、記述統計を通じて検証する。
DATは、開発生産性の正確かつ高カバレッジな指標を提供し、ビジネス上の決定を支援します。
- 参考スコア(独自算出の注目度): 1.1023377024290713
- License:
- Abstract: This paper introduces Diff Authoring Time (DAT), a powerful, yet conceptually simple approach to measuring software development productivity that enables rigorous experimentation. DAT is a time based metric, which assess how long engineers take to develop changes, using a privacy-aware telemetry system integrated with version control, the IDE, and the OS. We validate DAT through observational studies, surveys, visualizations, and descriptive statistics. At Meta, DAT has powered experiments and case studies on more than 20 projects. Here, we highlight (1) an experiment on introducing mock types (a 14% DAT improvement), (2) the development of automatic memoization in the React compiler (33% improvement), and (3) an estimate of thousands of DAT hours saved annually through code sharing (> 50% improvement). DAT offers a precise, yet high-coverage measure for development productivity, aiding business decisions. It enhances development efficiency by aligning the internal development workflow with the experiment-driven culture of external product development. On the research front, DAT has enabled us to perform rigorous experimentation on long-standing software engineering questions such as "do types make development more efficient?"
- Abstract(参考訳): 本稿ではDiff Authoring Time(DAT)を紹介し,厳密な実験を可能にするソフトウェア開発生産性の測定方法を提案する。
DATは、バージョン管理、IDE、OSと統合されたプライバシ対応のテレメトリシステムを使用して、エンジニアが変更を開発するのにどのくらいの時間を要するかを評価する、時間ベースのメトリクスである。
DATを観察研究、調査、可視化、記述統計を通じて検証する。
Metaでは、20以上のプロジェクトに関する実験とケーススタディが実施されている。
ここでは,(1)モック型の導入実験(14%のDAT改善),(2)Reactコンパイラの自動メモ化の開発(33%の改善),(3)コード共有(50%改善)を通じて毎年数千時間のDAT時間を節約した推定(50%)を紹介する。
DATは、開発生産性の正確かつ高カバレッジな指標を提供し、ビジネス上の決定を支援します。
内部開発ワークフローと外部製品開発の実験駆動型文化を整合させることで、開発効率を向上させる。
研究面では、DATは"型によって開発がより効率的になるか?
関連論文リスト
- Towards Decoding Developer Cognition in the Age of AI Assistants [9.887133861477233]
本稿では,生理的計測(EEGとアイトラッキング)とインタラクションデータを組み合わせて,AI支援プログラミングツールの開発者による使用状況を調べるための制御された観察的研究を提案する。
私たちは、認知負荷とタスク完了時間を計測しながら、AIアシストの有無に関わらず、プログラムタスクを完了させるために、プロの開発者を募集します。
論文 参考訳(メタデータ) (2025-01-05T23:25:21Z) - How much does AI impact development speed? An enterprise-based randomized controlled trial [8.759453531975668]
複雑なエンタープライズレベルのタスクに開発者が費やす時間に対する3つのAI機能の影響を見積もる。
また、コード関連のアクティビティに1日あたり何時間も費やす開発者は、AIがより速くなるという興味深い効果も見出しました。
論文 参考訳(メタデータ) (2024-10-16T18:31:14Z) - Which Combination of Test Metrics Can Predict Success of a Software Project? A Case Study in a Year-Long Project Course [1.553083901660282]
テストはソフトウェア開発プロジェクトの成功を保証する上で重要な役割を担います。
種々のテストが機能的適合性に与える影響を定量化できるかどうかを検討する。
論文 参考訳(メタデータ) (2024-08-22T04:23:51Z) - Spider2-V: How Far Are Multimodal Agents From Automating Data Science and Engineering Workflows? [73.81908518992161]
我々は、プロのデータサイエンスとエンジニアリングに焦点を当てた最初のマルチモーダルエージェントベンチマークであるSpider2-Vを紹介する。
Spider2-Vは、本物のコンピュータ環境における現実世界のタスクを特徴とし、20のエンタープライズレベルのプロフェッショナルアプリケーションを組み込んでいる。
これらのタスクは、エンタープライズデータソフトウェアシステムにおいて、コードを書き、GUIを管理することで、マルチモーダルエージェントがデータ関連のタスクを実行する能力を評価する。
論文 参考訳(メタデータ) (2024-07-15T17:54:37Z) - Experiential Co-Learning of Software-Developing Agents [83.34027623428096]
大規模言語モデル(LLM)は、特にソフトウェア開発において、様々な領域に大きな変化をもたらした。
本稿では,新しいLLM学習フレームワークであるExperiential Co-Learningを紹介する。
実験では、このフレームワークにより、エージェントは、目に見えないソフトウェア開発タスクをより効果的に対処できることを示した。
論文 参考訳(メタデータ) (2023-12-28T13:50:42Z) - On Responsible Machine Learning Datasets with Fairness, Privacy, and Regulatory Norms [56.119374302685934]
AI技術の信頼性に関する深刻な懸念があった。
機械学習とディープラーニングのアルゴリズムは、開発に使用されるデータに大きく依存する。
本稿では,責任あるルーブリックを用いてデータセットを評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:01:53Z) - Productivity Assessment of Neural Code Completion [4.821593904732654]
私たちは、GitHub Copilotのユーザに対して、生産性への影響について尋ね、直接測定可能なユーザデータの認識の反映を見つけようとしています。
提案された提案が受け入れられる確率は、コード内の完了の持続性に関するより具体的な指標よりも、開発者の生産性に対する認識を促進することが分かっています。
論文 参考訳(メタデータ) (2022-05-13T09:53:25Z) - Nemo: Guiding and Contextualizing Weak Supervision for Interactive Data
Programming [77.38174112525168]
私たちは、WS 学習パイプラインの全体的な生産性を、一般的な WS 監督アプローチと比較して平均20%(最大 47% のタスク)改善する、エンドツーエンドのインタラクティブなスーパービジョンシステムである Nemo を紹介します。
論文 参考訳(メタデータ) (2022-03-02T19:57:32Z) - Enabling Reproducibility and Meta-learning Through a Lifelong Database
of Experiments (LDE) [0.43012765978447565]
本稿では,実験成果物から関連メタデータを自動的に抽出し,保存するライフロング・データベース・オブ・エクスペリメント(LDE)を提案する。
AI開発ライフサイクルの複数のステージから、データセットやパイプライン、各設定方法、トレーニングはランタイム環境に関する情報とともに実行される。
このメタデータに対して,1)パフォーマンス指標の変動性を調べること,2)データ上に複数のメタ学習アルゴリズムを実装すること,の2つの実験を行った。
論文 参考訳(メタデータ) (2022-02-22T15:35:16Z) - Lifelong Learning Metrics [63.8376359764052]
DARPA Lifelong Learning Machines (L2M) プログラムは、人工知能(AI)システムの進歩を目指している。
本論文は、生涯学習シナリオを実行するエージェントのパフォーマンスの構築と特徴付けのためのフォーマリズムを概説する。
論文 参考訳(メタデータ) (2022-01-20T16:29:14Z) - Automated Machine Learning Techniques for Data Streams [91.3755431537592]
本稿では、最先端のオープンソースAutoMLツールを調査し、ストリームから収集したデータに適用し、時間とともにパフォーマンスがどのように変化するかを測定する。
この結果から,既製のAutoMLツールで十分な結果が得られることが示されたが,概念ドリフトや検出,適応といった手法が適用されれば,予測精度を時間とともに維持することが可能になる。
論文 参考訳(メタデータ) (2021-06-14T11:42:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。