論文の概要: Static Prediction of Runtime Errors by Learning to Execute Programs with
External Resource Descriptions
- arxiv url: http://arxiv.org/abs/2203.03771v1
- Date: Mon, 7 Mar 2022 23:17:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 15:15:35.805053
- Title: Static Prediction of Runtime Errors by Learning to Execute Programs with
External Resource Descriptions
- Title(参考訳): 外部リソース記述を用いたプログラム実行学習によるランタイムエラーの静的予測
- Authors: David Bieber, Rishab Goel, Daniel Zheng, Hugo Larochelle, Daniel
Tarlow
- Abstract要約: 実世界のデータセットと実行時のエラーを予測するタスクを導入します。
プログラムの実行を模倣する帰納的バイアスを持つインタプリタにインスパイアされたアーキテクチャを開発する。
また,このモデルでは,エラーの有無やエラーの種類を示すラベルにのみトレーニングされているにもかかわらず,エラーの位置を予測できることを示す。
- 参考スコア(独自算出の注目度): 31.46148643917194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The execution behavior of a program often depends on external resources, such
as program inputs or file contents, and so cannot be run in isolation.
Nevertheless, software developers benefit from fast iteration loops where
automated tools identify errors as early as possible, even before programs can
be compiled and run. This presents an interesting machine learning challenge:
can we predict runtime errors in a "static" setting, where program execution is
not possible? Here, we introduce a real-world dataset and task for predicting
runtime errors, which we show is difficult for generic models like
Transformers. We approach this task by developing an interpreter-inspired
architecture with an inductive bias towards mimicking program executions, which
models exception handling and "learns to execute" descriptions of the contents
of external resources. Surprisingly, we show that the model can also predict
the location of the error, despite being trained only on labels indicating the
presence/absence and kind of error. In total, we present a practical and
difficult-yet-approachable challenge problem related to learning program
execution and we demonstrate promising new capabilities of interpreter-inspired
machine learning models for code.
- Abstract(参考訳): プログラムの実行動作は、しばしばプログラムの入力やファイルの内容などの外部リソースに依存するため、独立して実行することはできない。
それでもソフトウェア開発者は,プログラムのコンパイルや実行に先立って,自動ツールが可能な限り早くエラーを識別する,高速なイテレーションループの恩恵を受けることができる。
プログラムの実行が不可能な"静的"な環境で実行時のエラーを予測できますか?
ここでは,実世界のデータセットと実行時のエラーを予測するタスクを導入し,トランスフォーマなどの汎用モデルでは難しいことを示す。
我々は,例外処理や外部リソースの内容の記述をモデル化するプログラム実行を模倣する帰納的バイアスを持つインタプリタに触発されたアーキテクチャを開発することにより,この課題にアプローチする。
驚くべきことに、このモデルは、存在/存在とある種のエラーを示すラベルにのみ訓練されているにもかかわらず、エラーの位置を予測可能であることも示している。
本稿では,プログラム実行の学習に関する実用的かつ困難な課題を提示し,コードに対するインタプリタにインスパイアされた機械学習モデルの新しい機能を実証する。
関連論文リスト
- Go-Oracle: Automated Test Oracle for Go Concurrency Bugs [6.773048267569272]
Go言語では、バグが大きな問題となっている。
我々の研究は、Goプログラムのテストオラクル問題に対処し、テスト実行をパスまたはフェールとして自動的に分類することを目指している。
ネイティブなGo実行トレーサを使用して、包括的な実行イベントをキャプチャします。
トランスフォーマーベースのニューラルネットワークをトレーニングする前に、これらのトレースを前処理してエンコードして、トレースをパスまたはフェールのいずれかとして効果的に分類します。
論文 参考訳(メタデータ) (2024-12-11T03:07:56Z) - Multi-Task Program Error Repair and Explanatory Diagnosis [28.711745671275477]
マルチタスクプログラムエラー修復・説明診断(mPRED)のための新しい機械学習手法を提案する。
ソースコードのエンコードには事前訓練された言語モデルが使用され、ダウンストリームモデルはエラーを特定して修復するために特別に設計されている。
プログラム構造を可視化・解析するために,プログラム構造の可視化にグラフニューラルネットワークを用いる。
論文 参考訳(メタデータ) (2024-10-09T05:09:24Z) - NExT: Teaching Large Language Models to Reason about Code Execution [50.93581376646064]
大規模言語モデル(LLM)のコードは通常、プログラムの表面テキスト形式に基づいて訓練される。
NExTは,プログラムの実行トレースを検査し,実行時の動作を判断する手法である。
論文 参考訳(メタデータ) (2024-04-23T01:46:32Z) - Inferring Non-Failure Conditions for Declarative Programs [0.0]
計算中の意図しない失敗は苦痛ですが、ソフトウェア開発では頻繁です。
意図しない引数で部分的に定義された操作を呼び出すような失敗のプログラミングは、ソフトウェアが正しいという仮定のため、しばしばキャッチされない。
本稿では,そのような仮定を検証するためのアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-20T12:25:36Z) - A Static Evaluation of Code Completion by Large Language Models [65.18008807383816]
単純なプログラミング問題に対するモデル生成コードの機能的正当性を評価するために,実行ベースベンチマークが提案されている。
プログラムを実行せずにエラーを検出するlinterのような静的解析ツールは、コード生成モデルを評価するために十分に研究されていない。
抽象構文木を利用して,Pythonのコード補完における静的エラーを定量化する静的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-05T19:23:34Z) - Using Large Language Models to Enhance Programming Error Messages [5.903720638984496]
大規模な言語モデルは、エラーメッセージのプログラミングに有用な拡張を作成するために使用することができる。
我々は,大規模言語モデルの利点と欠点について論じ,プログラムエラーメッセージの強化に向けた今後の研究の流れを浮き彫りにする。
論文 参考訳(メタデータ) (2022-10-20T23:17:26Z) - Fault-Aware Neural Code Rankers [64.41888054066861]
サンプルプログラムの正しさを予測できる故障認識型ニューラルネットワークローダを提案する。
我々のフォールト・アウェア・ローダは、様々なコード生成モデルのpass@1精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-06-04T22:01:05Z) - Learning from Self-Sampled Correct and Partially-Correct Programs [96.66452896657991]
そこで本研究では,モデルが学習中にサンプリングを行い,自己サンプリングされた完全正当プログラムと部分正当プログラムの両方から学習することを提案する。
自己サンプリング型プログラムと部分修正型プログラムを併用することで,学習とサンプリングプロセスのガイドに役立てることができることを示す。
提案手法は,MLEを用いた単一の参照プログラムからの学習と比較して,パス@kの性能を3.1%から12.3%向上させる。
論文 参考訳(メタデータ) (2022-05-28T03:31:07Z) - Chain of Thought Imitation with Procedure Cloning [129.62135987416164]
本稿では,一連の専門家計算を模倣するために,教師付きシーケンス予測を適用したプロシージャクローニングを提案する。
本研究では、専門家の行動の中間計算を模倣することで、プロシージャのクローン化により、未知の環境構成に顕著な一般化を示すポリシーを学習できることを示す。
論文 参考訳(メタデータ) (2022-05-22T13:14:09Z) - Learning from Executions for Semantic Parsing [86.94309120789396]
注釈付きデータの限られた量が利用できる半教師付き学習の課題に焦点をあてる。
ラベルなし発話に対する実行可能プログラムを提案する。
論文 参考訳(メタデータ) (2021-04-12T21:07:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。