論文の概要: I Speak, You Verify: Toward Trustworthy Neural Program Synthesis
- arxiv url: http://arxiv.org/abs/2210.00848v1
- Date: Thu, 29 Sep 2022 20:32:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 14:33:36.440917
- Title: I Speak, You Verify: Toward Trustworthy Neural Program Synthesis
- Title(参考訳): I Speak, You Verify: 信頼できるニューラルプログラム合成を目指して
- Authors: Darren Key, Wen-Ding Li, Kevin Ellis
- Abstract要約: プログラムと述語間の合意を分析して、どちらのプログラムが正しいかを判断する。
この後者の能力は、広範囲なリコールよりも高い精度で行うことができる。
- 参考スコア(独自算出の注目度): 6.390357081534995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop an approach for improving the trustworthiness and overall accuracy
of program synthesizers based on large language models for source code. Given a
natural language description of a programming problem, our method samples both
candidate programs as well as candidate predicates specifying how the program
should behave. We learn to analyze the agreement between programs and
predicates to judge both which program is most likely to be correct, and also
judge whether the language model is able to solve the programming problem in
the first place. This latter capacity allows favoring high precision over broad
recall: fostering trust by only proposing a program when the system is certain
that it is correct.
- Abstract(参考訳): 我々は,ソースコードの大規模言語モデルに基づくプログラム合成器の信頼性と全体的な精度向上のためのアプローチを開発する。
プログラム問題の自然言語記述を与えられた場合,提案手法は,プログラムの振る舞いを規定する候補述語と候補述語の両方をサンプリングする。
我々は、プログラムと述語の間の合意を分析し、どのプログラムが正しい可能性が高いかを判断し、言語モデルがそもそもプログラム問題を解決できるかどうかを判断することを学ぶ。
この後者のキャパシティは、広義のリコールよりも高い精度を優先する: システムが正しいと確信している場合にのみプログラムを提案することによって、信頼を育む。
関連論文リスト
- Improving Open-Ended Text Generation via Adaptive Decoding [6.746656673563492]
本研究では、動的に言語モデルに適応的復号化を導入し、生成時に意味のある候補集合を同定する機構を提案する。
実験結果から,本手法は多様性と一貫性のバランスが良好であることが明らかとなった。
我々の手法は言語モデルの推論能力を向上させる可能性がある。
論文 参考訳(メタデータ) (2024-02-28T10:38:21Z) - Fault-Aware Neural Code Rankers [64.41888054066861]
サンプルプログラムの正しさを予測できる故障認識型ニューラルネットワークローダを提案する。
我々のフォールト・アウェア・ローダは、様々なコード生成モデルのpass@1精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-06-04T22:01:05Z) - Learning from Self-Sampled Correct and Partially-Correct Programs [96.66452896657991]
そこで本研究では,モデルが学習中にサンプリングを行い,自己サンプリングされた完全正当プログラムと部分正当プログラムの両方から学習することを提案する。
自己サンプリング型プログラムと部分修正型プログラムを併用することで,学習とサンプリングプロセスのガイドに役立てることができることを示す。
提案手法は,MLEを用いた単一の参照プログラムからの学習と比較して,パス@kの性能を3.1%から12.3%向上させる。
論文 参考訳(メタデータ) (2022-05-28T03:31:07Z) - Foundation Posteriors for Approximate Probabilistic Inference [11.64841553345271]
我々は確率的プログラムにおいて、推論をマスク付き言語モデリングとして定式化する。
ニューラルネットワークをトレーニングしてランダムな値を解き放ち、近似した後続分布を定義する。
提案手法の有効性をSTANプログラムのベンチマークで示す。
論文 参考訳(メタデータ) (2022-05-19T17:42:37Z) - Program Analysis of Probabilistic Programs [3.299672391663527]
プログラム解析を用いて確率的プログラミングを改善するための3つの新しい手法を提案する。
このテクニックは確率的プログラムを分析し、推論をより効率的にするためにそれを適用する。
論文 参考訳(メタデータ) (2022-04-14T10:40:54Z) - A Conversational Paradigm for Program Synthesis [110.94409515865867]
本稿では,大規模言語モデルを用いた対話型プログラム合成手法を提案する。
私たちは、自然言語とプログラミング言語のデータに基づいて、CodeGenと呼ばれる大規模な言語モデルのファミリーを訓練します。
本研究は,会話能力の出現と,提案した会話プログラム合成パラダイムの有効性を示すものである。
論文 参考訳(メタデータ) (2022-03-25T06:55:15Z) - Typical Decoding for Natural Language Generation [76.69397802617064]
本稿は,高確率テキストが退屈あるいは反復的である理由について考察する。
典型的なサンプリングでは,品質面での競争性能が期待できる。
論文 参考訳(メタデータ) (2022-02-01T18:58:45Z) - Latent Programmer: Discrete Latent Codes for Program Synthesis [56.37993487589351]
プログラム合成や文書要約などの多くのシーケンス学習タスクにおいて、重要な問題は出力シーケンスの広い空間を探索することである。
本稿では,検索対象とする出力の表現を学習することを提案する。
本稿では,まず入力/出力サンプルから離散潜在コードを予測するプログラム合成手法であるemphLatent Programmerを紹介し,そのプログラムを対象言語で生成する。
論文 参考訳(メタデータ) (2020-12-01T10:11:35Z) - Transforming Probabilistic Programs for Model Checking [0.0]
確率的プログラムに静的解析を適用し、2つの重要なモデル検査手法の大部分を自動化する。
本手法は,密度関数を指定する確率的プログラムを,効率的なフォワードサンプリング形式に変換する。
本稿では,一般的なStan確率型プログラミング言語を対象とする実装を提案する。
論文 参考訳(メタデータ) (2020-08-21T21:06:34Z) - Exploring Software Naturalness through Neural Language Models [56.1315223210742]
ソフトウェア自然性仮説(Software Naturalness hypothesis)は、自然言語処理で使用されるのと同じ手法でプログラミング言語を理解することができると主張している。
この仮説は,事前学習されたトランスフォーマーベース言語モデルを用いて,コード解析タスクを実行することによって検討する。
論文 参考訳(メタデータ) (2020-06-22T21:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。