論文の概要: TypeT5: Seq2seq Type Inference using Static Analysis
- arxiv url: http://arxiv.org/abs/2303.09564v1
- Date: Thu, 16 Mar 2023 23:48:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 16:44:51.569124
- Title: TypeT5: Seq2seq Type Inference using Static Analysis
- Title(参考訳): TypeT5:静的解析を用いたSeq2seq型推論
- Authors: Jiayi Wei, Greg Durrett, Isil Dillig
- Abstract要約: 本稿では,型予測をコード入力タスクとして扱う新しい型推論手法を提案する。
本手法では静的解析を用いて,型シグネチャがモデルによって予測されるコード要素毎に動的コンテキストを構築する。
また,モデルの入力コンテキストに事前の型予測を組み込んだ反復復号方式を提案する。
- 参考スコア(独自算出の注目度): 51.153089609654174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been growing interest in automatically predicting missing type
annotations in programs written in Python and JavaScript. While prior methods
have achieved impressive accuracy when predicting the most common types, they
often perform poorly on rare or complex types. In this paper, we present a new
type inference method that treats type prediction as a code infilling task by
leveraging CodeT5, a state-of-the-art seq2seq pre-trained language model for
code. Our method uses static analysis to construct dynamic contexts for each
code element whose type signature is to be predicted by the model. We also
propose an iterative decoding scheme that incorporates previous type
predictions in the model's input context, allowing information exchange between
related code elements. Our evaluation shows that the proposed approach, TypeT5,
not only achieves a higher overall accuracy (particularly on rare and complex
types) but also produces more coherent results with fewer type errors -- while
enabling easy user intervention.
- Abstract(参考訳): PythonとJavaScriptで書かれたプログラムで、欠落した型アノテーションを自動的に予測することへの関心が高まっている。
従来の手法は、最も一般的な型を予測する際に非常に精度が良いが、稀な型や複雑な型では性能が悪いことが多い。
本稿では,最先端のseq2seq事前学習言語モデルであるcodet5を活用して,型予測をコードインフィルタスクとして扱う新しい型推論手法を提案する。
本手法では静的解析を用いて,型シグネチャがモデルによって予測されるコード要素毎に動的コンテキストを構築する。
また,モデルの入力コンテキストに従来型予測を取り入れ,関連するコード要素間の情報交換を可能にする反復復号方式を提案する。
我々の評価によると、提案手法であるTypeT5は、全体的な正確性(特に稀で複雑な型)を高めるだけでなく、より一貫性のある結果をもたらし、より少ない型エラーをもたらす。
関連論文リスト
- Calibrated Seq2seq Models for Efficient and Generalizable Ultra-fine
Entity Typing [10.08153231108538]
超微細エンティティタイピング用に設計されたseq2seqモデルであるCASENTを提案する。
我々のモデルは、エンティティを入力として参照し、制約されたビームサーチを用いて複数のタイプを自動回帰的に生成する。
提案手法は,F1スコアとキャリブレーション誤差の点から,50倍以上の推算速度を達成しながら,従来の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2023-11-01T20:39:12Z) - Learning Type Inference for Enhanced Dataflow Analysis [6.999203506253375]
我々は、型アノテーションを確実に予測するように訓練されたTransformerベースのモデルであるCodeTIDAL5を提案する。
私たちのモデルは、MaryTypes4TypeScriptベンチマークで現在の最先端を7.85%上回っています。
JoernTIは、オープンソースの静的解析ツールであるJoernへの私たちのアプローチの統合です。
論文 参考訳(メタデータ) (2023-10-01T13:52:28Z) - Generative Type Inference for Python [62.01560866916557]
本稿では静的解析から静的ドメイン知識を取り入れた数ショットの生成型推論手法であるTypeGenを紹介する。
TypeGenは、静的解析の型推論ステップを、型依存グラフ(TDG)に基づいたプロンプトに変換することで、COTプロンプトを生成する。
実験の結果、TypeGenは引数型予測では10.0%、Top-1 Exact Matchでは22.5%で最高のベースラインであるType4Pyを上回っている。
論文 参考訳(メタデータ) (2023-07-18T11:40:31Z) - Type Prediction With Program Decomposition and Fill-in-the-Type Training [2.7998963147546143]
大規模な言語モデルを活用する型予測のための検索ベースのアプローチであるOpenTauを構築した。
TypeScriptの型予測のための新しいデータセットで作業を評価し、ファイルタイプチェックの47.4%(14.5%の絶対的改善)とファイル毎の3.3型のエラー率を示している。
論文 参考訳(メタデータ) (2023-05-25T21:16:09Z) - Query and Extract: Refining Event Extraction as Type-oriented Binary
Decoding [51.57864297948228]
本稿では,自然言語クエリとしてイベントタイプと引数ロールを取り入れた新しいイベント抽出フレームワークを提案する。
我々のフレームワークは、イベントタイプや引数ロールと入力テキストとのセマンティックな相関をよりよく捉えるための注意機構の恩恵を受ける。
論文 参考訳(メタデータ) (2021-10-14T15:49:40Z) - Type4Py: Deep Similarity Learning-Based Type Inference for Python [9.956021565144662]
類似度学習に基づくpythonの型推論モデルであるtype4pyを提案する。
高次元空間における同種の型と異種の型を区別することを学ぶ階層的ニューラルネットワークモデルを設計する。
Top-1の予測を考えると、Type4PyはTypilusとTypeWriterよりも19.33%、13.49%高い精度である。
論文 参考訳(メタデータ) (2021-01-12T13:32:53Z) - Unsupervised Label-aware Event Trigger and Argument Classification [73.86358632937372]
まず,利用可能なツール(srlなど)でイベントを識別し,それを事前に定義されたイベントタイプに自動マップする,教師なしイベント抽出パイプラインを提案する。
事前訓練された言語モデルを利用して、イベントトリガと引数の両方の事前定義された型を文脈的に表現します。
我々は、トリガーの83%と引数の54%を正しい型にマッピングし、以前のゼロショットアプローチのパフォーマンスをほぼ倍にしました。
論文 参考訳(メタデータ) (2020-12-30T17:47:24Z) - Learning Sparse Prototypes for Text Generation [120.38555855991562]
プロトタイプ駆動のテキスト生成は、トレーニングコーパス全体の保存とインデックスを必要とするため、テスト時に非効率である。
本稿では,言語モデリング性能を向上するスパースなプロトタイプサポートセットを自動的に学習する新しい生成モデルを提案する。
実験では,1000倍のメモリ削減を実現しつつ,従来のプロトタイプ駆動型言語モデルよりも優れていた。
論文 参考訳(メタデータ) (2020-06-29T19:41:26Z) - LambdaNet: Probabilistic Type Inference using Graph Neural Networks [46.66093127573704]
本稿では,グラフニューラルネットワークに基づくTypeScriptの確率型推論手法を提案する。
弊社のアプローチでは、数値や文字列などの標準型と、トレーニング中に遭遇していないユーザ定義型の両方を予測できる。
論文 参考訳(メタデータ) (2020-04-29T17:48:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。