論文の概要: Neurosymbolic Repair for Low-Code Formula Languages
- arxiv url: http://arxiv.org/abs/2207.11765v1
- Date: Sun, 24 Jul 2022 15:56:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:29:59.502087
- Title: Neurosymbolic Repair for Low-Code Formula Languages
- Title(参考訳): 低符号言語に対するニューロシンボリック修復法
- Authors: Rohan Bavishi, Harshit Joshi, Jos\'e Pablo Cambronero S\'anchez, Anna
Fariha, Sumit Gulwani, Vu Le, Ivan Radicek, Ashish Tiwari
- Abstract要約: ExcelやPowerAppsのようなローコードプラットフォームのほとんどのユーザは、ドメイン固有の公式言語でプログラムを書く。
LAst-Mile RepAirエンジンのGEneratorであるLaMirageを開発した。
我々はLaMirageを400の実ExcelとPowerFxの公式に対する最先端のニューラルおよびシンボリックアプローチと比較する。
- 参考スコア(独自算出の注目度): 12.986749944196402
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most users of low-code platforms, such as Excel and PowerApps, write programs
in domain-specific formula languages to carry out nontrivial tasks. Often users
can write most of the program they want, but introduce small mistakes that
yield broken formulas. These mistakes, which can be both syntactic and
semantic, are hard for low-code users to identify and fix, even though they can
be resolved with just a few edits. We formalize the problem of producing such
edits as the last-mile repair problem. To address this problem, we developed
LaMirage, a LAst-MIle RepAir-engine GEnerator that combines symbolic and neural
techniques to perform last-mile repair in low-code formula languages. LaMirage
takes a grammar and a set of domain-specific constraints/rules, which jointly
approximate the target language, and uses these to generate a repair engine
that can fix formulas in that language. To tackle the challenges of localizing
the errors and ranking the candidate repairs, LaMirage leverages neural
techniques, whereas it relies on symbolic methods to generate candidate
repairs. This combination allows LaMirage to find repairs that satisfy the
provided grammar and constraints, and then pick the most natural repair. We
compare LaMirage to state-of-the-art neural and symbolic approaches on 400 real
Excel and PowerFx formulas, where LaMirage outperforms all baselines. We
release these benchmarks to encourage subsequent work in low-code domains.
- Abstract(参考訳): ExcelやPowerAppsのようなローコードプラットフォームのほとんどのユーザは、ドメイン固有の公式言語でプログラムを書き、非自明なタスクを実行する。
多くの場合、ユーザーは自分の望むプログラムのほとんどを書けるが、壊れた公式を生み出す小さなミスを導入する。
これらのミスは構文的にも意味的にも、ほんの数回の編集で解決できたとしても、ローコードユーザが識別し修正することは難しい。
ラストマイル修復問題として,このような編集の問題を定式化する。
この問題に対処するため,我々は,シンボリックとニューラルネットワークを組み合わせたラストマイル修理エンジン生成器であるlamirageを開発した。
LaMirageは文法とドメイン固有の制約/ルールのセットを持ち、ターゲット言語を互いに近似し、これらを使用して、その言語の式を修正可能な修復エンジンを生成する。
エラーのローカライズと修正候補のランク付けという課題に対処するために、lamirageはニューラルネットワークのテクニックを活用している。
この組み合わせにより、LaMirageは提供された文法と制約を満たす修復を見つけ、次に最も自然な修復を選択することができる。
我々はLaMirageを、400の実際のExcelとPowerFxの公式に対する最先端のニューラルネットワークとシンボリックアプローチと比較する。
これらのベンチマークをリリースして、ローコードドメインでのその後の作業を促進する。
関連論文リスト
- DeepCode AI Fix: Fixing Security Vulnerabilities with Large Language
Models [3.1690235522182104]
大規模言語モデル(LLM)は、様々なプログラミングタスクの解決にますます使われている。
長距離コード関係を学習するモデルを必要とするため,タスクは困難であることを示す。
本稿では,LLMのクエリと微調整のための新しいアプローチにより,これらの課題に対処する手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T18:35:40Z) - A Novel Approach for Automatic Program Repair using Round-Trip
Translation with Large Language Models [50.86686630756207]
研究によると、ある文の文法的誤りは、それを他の言語に翻訳し、その語を返せば修正できる。
現在の自動プログラム修復(APR)生成モデルは、ソースコードで事前訓練され、修正のために微調整されている。
本稿では,あるプログラミング言語から別のプログラミング言語,あるいは自然言語へのコード変換,そして,その逆といった,微調整ステップをバイパスし,ラウンド・トリップ変換(RTT)を用いる手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T22:36:31Z) - Guess & Sketch: Language Model Guided Transpilation [61.24102712913847]
学習されたトランスパイレーションは、手作業による書き直しやエンジニアリングの取り組みに代わるものだ。
確率的ニューラルネットワークモデル(LM)は、入力毎に可塑性出力を生成するが、正確性を保証するコストがかかる。
Guess & Sketch は LM の特徴からアライメントと信頼性情報を抽出し、意味的等価性を解決するためにシンボリック・ソルバに渡す。
論文 参考訳(メタデータ) (2023-09-25T15:42:18Z) - Enhancing Automated Program Repair through Fine-tuning and Prompt
Engineering [2.3826139428423576]
シーケンス・ツー・シーケンスのモデルは、十分に大規模なデータセットでトレーニングされた時に、誤ったプログラムを正しいプログラムに変換するために使われてきた。
いくつかの最近の研究は、コードレビューがプログラムの修復をさらに改善できるという強い実証的な証拠を示した。
PLとNLの本質的な知識が,プログラムの自動修復の改善に有効かどうかを検討する。
論文 参考訳(メタデータ) (2023-04-16T17:29:51Z) - LEVER: Learning to Verify Language-to-Code Generation with Execution [64.36459105535]
本稿では,プログラムの実行結果の検証を学習することで,言語からコードへの生成を改善するシンプルな手法であるLEVERを提案する。
具体的には、LLMからサンプリングされたプログラムが、自然言語入力、プログラム自体とその実行結果に基づいて正しいか否かを判定するために、検証者を訓練する。
LEVER はベースコード LLMs (4.6% から 10.9% まで) を継続的に改善し、それらすべてに対して新しい最先端の結果を得る。
論文 参考訳(メタデータ) (2023-02-16T18:23:22Z) - Piloting Copilot and Codex: Hot Temperature, Cold Prompts, or Black
Magic? [5.714553194279462]
2つの言語モデルの様々な入力パラメータについて検討し、これらの入力パラメータの変動が生成したプログラムの品質に重大な影響を及ぼすかどうかを理解するために研究を行う。
その結果,入力パラメータの変動は言語モデルの性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-10-26T13:28:14Z) - Repair Is Nearly Generation: Multilingual Program Repair with LLMs [9.610685299268825]
Codexのようなコード(LLMC)でトレーニングされた大規模言語モデルを利用した多言語修復エンジンであるRingを紹介する。
プログラマが手動でバグを修正する方法からインスピレーションを得て、修復をローカライズ、トランスフォーメーション、候補ランキングとして概念化するプロンプトベースの戦略が、最小限の努力で複数のドメインでのプログラムの修復に成功できることを示す。
論文 参考訳(メタデータ) (2022-08-24T16:25:58Z) - Correcting Robot Plans with Natural Language Feedback [88.92824527743105]
ロボットの修正のための表現的かつ柔軟なツールとして自然言語を探索する。
これらの変換により、ユーザは目標を正し、ロボットの動きを更新し、計画上のエラーから回復できる。
本手法により,シミュレーション環境や実環境において,複数の制約を合成し,未知のシーン,オブジェクト,文に一般化することが可能となる。
論文 参考訳(メタデータ) (2022-04-11T15:22:43Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z) - NeuSpell: A Neural Spelling Correction Toolkit [88.79419580807519]
NeuSpellは、英語でスペル修正を行うためのオープンソースのツールキットである。
10の異なるモデルで構成され、複数のソースからのミススペルをベンチマークする。
我々は、逆エンジニアリング分離ミススペルによって合成的に構築された文脈におけるスペルエラーを用いてニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2020-10-21T15:53:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。