論文の概要: Moldable Exceptions
- arxiv url: http://arxiv.org/abs/2409.00465v1
- Date: Sat, 31 Aug 2024 14:14:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 14:39:09.411694
- Title: Moldable Exceptions
- Title(参考訳): 成形可能な例外
- Authors: Andrei Chiş, Tudor Gîrba, Oscar Nierstrasz,
- Abstract要約: コンテキスト情報に基づいてデバッガのインタフェースを適応するための軽量なメカニズムである「モールド可能な例外」を導入する。
いくつかの例を通して、モールド可能な例外がライブプログラミング環境をいかに強化するかを提示する。
- 参考スコア(独自算出の注目度): 0.840358257755792
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Debugging is hard. Interactive debuggers are mostly the same. They show you a stack, a way to sample the state of the stack, and, if the debugger is live, a way to step through execution. The standard interactive debugger for a general-purpose programming language provided by a mainstream IDE mostly offers a low-level interface in terms of generic language constructs to track down and fix bugs. A custom debugger, such as those developed for specific application domains, offers alternative interfaces more suitable to the specific execution context of the program being debugged. Custom debuggers offering contextual debugging views and actions can greatly improve our ability to reason about the current problem. Implementing such custom debuggers, however, is non-trivial, and poses a barrier to improving the debugging experience. In this paper we introduce "moldable exceptions", a lightweight mechanism to adapt a debugger's interface based on contextual information provided by a raised exception. We present, through a series of examples, how moldable exceptions can enhance a live programming environment.
- Abstract(参考訳): デバッグは難しいです。
インタラクティブデバッガはほとんど同じです。
スタック、スタックの状態のサンプリング方法、デバッガが稼働している場合、実行をステップする手段が示されます。
メインストリームのIDEによって提供される汎用プログラミング言語の標準的なインタラクティブデバッガは、バグの追跡と修正のためのジェネリック言語構造という観点からは、低レベルなインターフェースを提供する。
特定のアプリケーションドメイン用に開発されたカスタムデバッガは、デバッグされるプログラムの特定の実行コンテキストにもっと適した代替インターフェースを提供する。
コンテキストデバッグビューとアクションを提供するカスタムデバッガは、現在の問題を推論する能力を大幅に改善します。
しかし、そのようなカスタムデバッガを実装するのは簡単ではなく、デバッグエクスペリエンスを改善する上で障壁となる。
本稿では,参照された例外によって提供されるコンテキスト情報に基づいて,デバッガのインタフェースを適応するための軽量な機構である「モールド可能な例外」を紹介する。
我々は、一連の例を通して、モールド可能な例外がライブプログラミング環境をどのように強化するかを提示する。
関連論文リスト
- MdEval: Massively Multilingual Code Debugging [37.48700033342978]
18のプログラミング言語の3.6Kテストサンプルを含む,最初の大規模多言語デバッグベンチマークを提案する。
本稿では, MDEVAL-INSTRUCT 命令コーパスを導入し, 正しい多言語クエリとソリューションにバグを注入する。
MDEVALにおける実験により,オープンソースモデルとクローズドソースLLM間の顕著な性能差が明らかになった。
論文 参考訳(メタデータ) (2024-11-04T17:36:40Z) - A Proposal for a Debugging Learning Support Environment for Undergraduate Students Majoring in Computer Science [0.0]
生徒はデバッガの使い方を知らないし、使ったこともない。
我々は,正しいブレークポイント配置の自己学習を可能にする機能をScratchに実装した。
論文 参考訳(メタデータ) (2024-07-25T03:34:19Z) - VDebugger: Harnessing Execution Feedback for Debugging Visual Programs [103.61860743476933]
V Debuggerは、視覚プログラムのローカライズとデバッギングのために、段階的に実行を追跡することで訓練された、批評家とリファインダーのフレームワークである。
Vデバッガは、詳細な実行フィードバックを活用してプログラムエラーを特定し、修正する。
6つのデータセットの評価は、Vデバッガの有効性を示し、ダウンストリームタスクの精度が最大3.2%向上したことを示している。
論文 参考訳(メタデータ) (2024-06-19T11:09:16Z) - Accurate Coverage Metrics for Compiler-Generated Debugging Information [0.0]
多くのツールは、プログラム状態のソース言語ビューを示すために、コンパイラが生成したメタデータに依存している。
局所変数のカバー範囲を測定するための現在のアプローチは粗末な仮定に基づいている。
我々は,デバッグ品質を改善するための言語実装のモチベーションとして,ツールによって計算可能な,いくつかの新しいメトリクスを提案する。
論文 参考訳(メタデータ) (2024-02-07T13:01:28Z) - Leveraging Print Debugging to Improve Code Generation in Large Language
Models [63.63160583432348]
大規模言語モデル(LLM)はコード生成タスクにおいて大きな進歩を遂げた。
しかし、複雑なデータ構造やアルゴリズムによるプログラミング問題に対処する彼らのパフォーマンスは、依然として準最適である。
そこで本稿では,LLM のデバッグを "print debugging" 手法でガイドする,コンテキスト内学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-10T18:37:59Z) - DebugBench: Evaluating Debugging Capability of Large Language Models [80.73121177868357]
DebugBench - LLM(Large Language Models)のベンチマーク。
C++、Java、Pythonの4つの主要なバグカテゴリと18のマイナータイプをカバーする。
ゼロショットシナリオで2つの商用および4つのオープンソースモデルを評価する。
論文 参考訳(メタデータ) (2024-01-09T15:46:38Z) - NuzzleBug: Debugging Block-Based Programs in Scratch [11.182625995483862]
NuzzleBugは、人気のあるブロックベースのプログラミング環境であるScratchの拡張である。
これは、実行について質問し、回答を提供することができる尋問デバッガである。
教師はNuzzleBugが有用であると考えており、子どもたちはプログラムの欠陥を効果的にデバッグすることができる。
論文 参考訳(メタデータ) (2023-09-25T18:56:26Z) - A Static Evaluation of Code Completion by Large Language Models [65.18008807383816]
単純なプログラミング問題に対するモデル生成コードの機能的正当性を評価するために,実行ベースベンチマークが提案されている。
プログラムを実行せずにエラーを検出するlinterのような静的解析ツールは、コード生成モデルを評価するために十分に研究されていない。
抽象構文木を利用して,Pythonのコード補完における静的エラーを定量化する静的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-05T19:23:34Z) - Teaching Large Language Models to Self-Debug [62.424077000154945]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを達成した。
本稿では,大規模言語モデルで予測プログラムを数発のデモでデバッグする自己デバッグを提案する。
論文 参考訳(メタデータ) (2023-04-11T10:43:43Z) - Using Developer Discussions to Guide Fixing Bugs in Software [51.00904399653609]
我々は,タスク実行前に利用可能であり,また自然発生しているバグレポートの議論を,開発者による追加情報の必要性を回避して利用することを提案する。
このような議論から派生したさまざまな自然言語コンテキストがバグ修正に役立ち、オラクルのバグ修正コミットに対応するコミットメッセージの使用よりもパフォーマンスの向上につながることを実証する。
論文 参考訳(メタデータ) (2022-11-11T16:37:33Z) - Eye: Program Visualizer for CS2 [1.319058156672392]
Eyeはプログラムの実行を視覚化するインタラクティブツールである。
一般的な環境でのデータ構造の特性と利用を実証する。
EyeはCS2の学生がオンラインプログラミングのWebサイトで利用できる無数のプログラムをより容易に理解するためのゲートウェイを開く。
論文 参考訳(メタデータ) (2021-01-28T16:16:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。