論文の概要: Type Prediction With Program Decomposition and Fill-in-the-Type Training
- arxiv url: http://arxiv.org/abs/2305.17145v1
- Date: Thu, 25 May 2023 21:16:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 23:34:54.783551
- Title: Type Prediction With Program Decomposition and Fill-in-the-Type Training
- Title(参考訳): プログラム分割とフィルイン型トレーニングによる型予測
- Authors: Federico Cassano, Ming-Ho Yee, Noah Shinn, Arjun Guha, Steven Holtzen
- Abstract要約: 大規模な言語モデルを活用する型予測のための検索ベースのアプローチであるOpenTauを構築した。
TypeScriptの型予測のための新しいデータセットで作業を評価し、ファイルタイプチェックの47.4%(14.5%の絶対的改善)とファイル毎の3.3型のエラー率を示している。
- 参考スコア(独自算出の注目度): 2.7998963147546143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: TypeScript and Python are two programming languages that support optional
type annotations, which are useful but tedious to introduce and maintain. This
has motivated automated type prediction: given an untyped program, produce a
well-typed output program. Large language models (LLMs) are promising for type
prediction, but there are challenges: fill-in-the-middle performs poorly,
programs may not fit into the context window, generated types may not type
check, and it is difficult to measure how well-typed the output program is. We
address these challenges by building OpenTau, a search-based approach for type
prediction that leverages large language models. We propose a new metric for
type prediction quality, give a tree-based program decomposition that searches
a space of generated types, and present fill-in-the-type fine-tuning for LLMs.
We evaluate our work with a new dataset for TypeScript type prediction, and
show that 47.4% of files type check (14.5% absolute improvement) with an
overall rate of 3.3 type errors per file. All code, data, and models are
available at: https://github.com/GammaTauAI/opentau.
- Abstract(参考訳): TypeScriptとPythonは、オプションの型アノテーションをサポートする2つのプログラミング言語である。
これは自動型予測の動機となっている: 型なしのプログラムが与えられたら、よく型付けされた出力プログラムを生成する。
型予測には大きな言語モデル(LLM)が期待されているが、性能が悪く、プログラムがコンテキストウィンドウに収まらないこと、生成された型が型チェックをしないこと、出力プログラムがどの程度うまく型付けされているかを測定することは困難である。
大規模な言語モデルを活用する型予測のための検索ベースのアプローチであるOpenTauを構築することで、これらの課題に対処する。
本稿では,型予測品質の新たな指標を提案し,生成した型空間を探索する木に基づくプログラム分解を行い,LLMの補間ファインタニングを提案する。
TypeScriptの型予測のための新しいデータセットで作業を評価し、ファイルタイプチェックの47.4%(14.5%の絶対的改善)とファイル毎の3.3型のエラー率を示している。
すべてのコード、データ、モデルは、https://github.com/GammaTauAI/opentau.comで入手できる。
関連論文リスト
- Learning Program Behavioral Models from Synthesized Input-Output Pairs [70.9524884086882]
我々は、_neural machine translation_を用いて入力/出力動作から_modelを学習するフレームワークであるModelizerを紹介した。
Modelizerは_grammars_を使って入力を合成し、結果の出力を解析し、トークンストリーム間のシーケンスとシーケンスの関連を学習する。
入力と出力の文法以外は、Modelizerはプログラムを実行する能力だけを必要とする。
論文 参考訳(メタデータ) (2024-07-11T15:25:02Z) - Inferring Pluggable Types with Machine Learning [0.3867363075280544]
本稿では,機械学習を用いて型付き修飾子を自動的に推論する方法について検討する。
本稿では,最小限のデータフローヒントを符号化した新しい表現NaP-ASTを提案する。
論文 参考訳(メタデータ) (2024-06-21T22:32:42Z) - Generative Type Inference for Python [62.01560866916557]
本稿では静的解析から静的ドメイン知識を取り入れた数ショットの生成型推論手法であるTypeGenを紹介する。
TypeGenは、静的解析の型推論ステップを、型依存グラフ(TDG)に基づいたプロンプトに変換することで、COTプロンプトを生成する。
実験の結果、TypeGenは引数型予測では10.0%、Top-1 Exact Matchでは22.5%で最高のベースラインであるType4Pyを上回っている。
論文 参考訳(メタデータ) (2023-07-18T11:40:31Z) - TypeT5: Seq2seq Type Inference using Static Analysis [51.153089609654174]
本稿では,型予測をコード入力タスクとして扱う新しい型推論手法を提案する。
本手法では静的解析を用いて,型シグネチャがモデルによって予測されるコード要素毎に動的コンテキストを構築する。
また,モデルの入力コンテキストに事前の型予測を組み込んだ反復復号方式を提案する。
論文 参考訳(メタデータ) (2023-03-16T23:48:00Z) - Fault-Aware Neural Code Rankers [64.41888054066861]
サンプルプログラムの正しさを予測できる故障認識型ニューラルネットワークローダを提案する。
我々のフォールト・アウェア・ローダは、様々なコード生成モデルのpass@1精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-06-04T22:01:05Z) - Type4Py: Deep Similarity Learning-Based Type Inference for Python [9.956021565144662]
類似度学習に基づくpythonの型推論モデルであるtype4pyを提案する。
高次元空間における同種の型と異種の型を区別することを学ぶ階層的ニューラルネットワークモデルを設計する。
Top-1の予測を考えると、Type4PyはTypilusとTypeWriterよりも19.33%、13.49%高い精度である。
論文 参考訳(メタデータ) (2021-01-12T13:32:53Z) - Unsupervised Label-aware Event Trigger and Argument Classification [73.86358632937372]
まず,利用可能なツール(srlなど)でイベントを識別し,それを事前に定義されたイベントタイプに自動マップする,教師なしイベント抽出パイプラインを提案する。
事前訓練された言語モデルを利用して、イベントトリガと引数の両方の事前定義された型を文脈的に表現します。
我々は、トリガーの83%と引数の54%を正しい型にマッピングし、以前のゼロショットアプローチのパフォーマンスをほぼ倍にしました。
論文 参考訳(メタデータ) (2020-12-30T17:47:24Z) - Advanced Graph-Based Deep Learning for Probabilistic Type Inference [0.8508198765617194]
本稿では,新しい型フローグラフ(TFG)表現で動作するグラフニューラルネットワーク(GNN)モデルについて紹介する。
我々のGNNモデルは、所定の入力プログラムに対してTFGの型ラベルを予測するために訓練されている。
我々の2つのGNN構成の精度は、それぞれ87.76%と86.89%である。
論文 参考訳(メタデータ) (2020-09-13T08:13:01Z) - LambdaNet: Probabilistic Type Inference using Graph Neural Networks [46.66093127573704]
本稿では,グラフニューラルネットワークに基づくTypeScriptの確率型推論手法を提案する。
弊社のアプローチでは、数値や文字列などの標準型と、トレーニング中に遭遇していないユーザ定義型の両方を予測できる。
論文 参考訳(メタデータ) (2020-04-29T17:48:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。