論文の概要: Highly Interactive Testing for Uninterrupted Development Flow
- arxiv url: http://arxiv.org/abs/2508.02176v1
- Date: Mon, 04 Aug 2025 08:17:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 13:48:46.722801
- Title: Highly Interactive Testing for Uninterrupted Development Flow
- Title(参考訳): 途切れない開発フローのための高インタラクティブテスト
- Authors: Andrew Tropin,
- Abstract要約: 我々は、テストのランタイム表現を提供するライブラリを示し、HIDEツールとの緊密な統合を可能にします。
テストによって強化された開発について説明し、開発者がフォーカスを維持するのに欠かせないテストの再実行時間をどのように達成するかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Highly interactive development environments (HIDEs) enable uninterrupted development flow through continuous program evolution and rapid hypothesis checking. However, traditional testing approaches -- typically executed separately via CLI -- isolate tests from HIDE tooling (interactive debuggers, value and stack inspectors, etc.) and introduce disruptive delays due to coarse execution granularity and lack of runtime context. This disconnect breaks development flow by exceeding critical attention thresholds. In this paper we present a library that provides runtime representation for tests, allowing tight integration with HIDEs, and enabling immediate access to HIDE tooling in the context of test failure. We then describe development workflows enhanced with testing and demonstrate how they achieve subsecond test reexecution times crucial for maintaining developer focus.
- Abstract(参考訳): 高インタラクティブな開発環境(HIDE)は、継続的プログラムの進化と素早い仮説チェックを通じて、未中断の開発フローを可能にする。
しかしながら、従来のテストアプローチ(通常はCLIを介して別々に実行される)は、HIDEツール(インタラクティブデバッガ、値とスタックインスペクタなど)からテストを分離し、粗い実行の粒度とランタイムコンテキストの欠如による破壊的な遅延を導入する。
この切断は、重要な注意しきい値を超えた開発フローを損なう。
本稿では,テストのランタイム表現を提供し,HIDEとの密接な統合を可能にし,テスト失敗の文脈でHIDEツールへの即時アクセスを可能にするライブラリを提案する。
次に、テストによって強化された開発ワークフローを説明し、開発者がフォーカスを維持するのに不可欠な秒以下のテストの再実行時間をどのように達成するかを示します。
関連論文リスト
- From Reproduction to Replication: Evaluating Research Agents with Progressive Code Masking [48.90371827091671]
AutoExperimentは、AIエージェントの機械学習実験の実装と実行能力を評価するベンチマークである。
我々は最先端のエージェントを評価し、n$が増加するにつれて性能が急速に低下することを発見した。
本研究は、長期コード生成、文脈検索、自律的な実験実行における重要な課題を浮き彫りにした。
論文 参考訳(メタデータ) (2025-06-24T15:39:20Z) - Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - Revisit Self-Debugging with Self-Generated Tests for Code Generation [18.643472696246686]
自己生成テストによる自己改善は、有望なソリューションだが、その限界と現実的な可能性を十分に探求することができない。
プロセスにはポストエグゼクティブとインエグゼクティブ自己老化という2つのパラダイムを提案する。
実行後の自己老化は基本的な問題に苦しむが、自己生成テストによって生じるバイアスのため、競合する問題の改善の可能性を示す。
論文 参考訳(メタデータ) (2025-01-22T10:54:19Z) - Practical Pipeline-Aware Regression Test Optimization for Continuous Integration [9.079940595000087]
継続的インテグレーション(CI)は、一貫したコード品質を保証するために一般的に適用されます。
開発者は一般的に、複数のパイプラインにまたがってテスト実行を分割し、サブミット前の段階で小さくて速いテストを実行し、ポストサブミット後のパイプラインで長時間実行し、不安定なテストを実行する。
言語に依存しない特徴に基づいて訓練された強化学習モデルを用いて,軽量かつパイプライン対応の回帰テスト最適化手法を開発した。
論文 参考訳(メタデータ) (2025-01-20T15:39:16Z) - Commit0: Library Generation from Scratch [77.38414688148006]
Commit0は、AIエージェントにスクラッチからライブラリを書くよう促すベンチマークである。
エージェントには、ライブラリのAPIを概説する仕様文書と、インタラクティブなユニットテストスイートが提供されている。
Commit0はまた、モデルが生成したコードに対して静的解析と実行フィードバックを受け取る、インタラクティブな環境も提供する。
論文 参考訳(メタデータ) (2024-12-02T18:11:30Z) - LLM-based Unit Test Generation via Property Retrieval [26.906316611858518]
プロパティベースのRetrieval Augmentationは、基本的なベクトル、テキスト類似性、グラフベースのメソッドを超えてLLMベースのRetrieval-Augmented Generationを拡張する。
提案手法では,タスク固有のコンテキストを考慮し,プロパティ検索機構を導入している。
提案手法は,前処理,プロパティ検索,単体テスト生成を逐次実行するAPTと呼ばれるツールに実装する。
論文 参考訳(メタデータ) (2024-10-17T13:33:12Z) - Codev-Bench: How Do LLMs Understand Developer-Centric Code Completion? [60.84912551069379]
Code-Development Benchmark (Codev-Bench)は、細粒度で現実世界、リポジトリレベル、開発者中心の評価フレームワークです。
Codev-Agentは、リポジトリのクローリングを自動化し、実行環境を構築し、既存のユニットテストから動的呼び出しチェーンを抽出し、データ漏洩を避けるために新しいテストサンプルを生成するエージェントベースのシステムである。
論文 参考訳(メタデータ) (2024-10-02T09:11:10Z) - ASTER: Natural and Multi-language Unit Test Generation with LLMs [6.259245181881262]
静的解析を組み込んだジェネリックパイプラインを記述し,コンパイル可能な高カバレッジテストケースの生成においてLCMをガイドする。
コードカバレッジとテスト自然性の観点から,生成したテストの品質を評価するための実証的研究を行った。
論文 参考訳(メタデータ) (2024-09-04T21:46:18Z) - Benchopt: Reproducible, efficient and collaborative optimization
benchmarks [67.29240500171532]
Benchoptは、機械学習で最適化ベンチマークを自動化、再生、公開するためのフレームワークである。
Benchoptは実験を実行、共有、拡張するための既製のツールを提供することで、コミュニティのベンチマークを簡単にする。
論文 参考訳(メタデータ) (2022-06-27T16:19:24Z) - LSTC: Boosting Atomic Action Detection with Long-Short-Term Context [60.60267767456306]
我々は行動認識パイプラインを短期的・長期的依存に分解する。
本設計では, 局所集約分枝を用いて, 密集した情報的短期的手がかりを収集する。
両方のブランチは、コンテキスト固有のアクションを独立して予測し、結果が最後にマージされる。
論文 参考訳(メタデータ) (2021-10-19T10:09:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。