論文の概要: Neurosymbolic Repair for Low-Code Formula Languages
- arxiv url: http://arxiv.org/abs/2207.11765v1
- Date: Sun, 24 Jul 2022 15:56:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:29:59.502087
- Title: Neurosymbolic Repair for Low-Code Formula Languages
- Title(参考訳): 低符号言語に対するニューロシンボリック修復法
- Authors: Rohan Bavishi, Harshit Joshi, Jos\'e Pablo Cambronero S\'anchez, Anna
Fariha, Sumit Gulwani, Vu Le, Ivan Radicek, Ashish Tiwari
- Abstract要約: ExcelやPowerAppsのようなローコードプラットフォームのほとんどのユーザは、ドメイン固有の公式言語でプログラムを書く。
LAst-Mile RepAirエンジンのGEneratorであるLaMirageを開発した。
我々はLaMirageを400の実ExcelとPowerFxの公式に対する最先端のニューラルおよびシンボリックアプローチと比較する。
- 参考スコア(独自算出の注目度): 12.986749944196402
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most users of low-code platforms, such as Excel and PowerApps, write programs
in domain-specific formula languages to carry out nontrivial tasks. Often users
can write most of the program they want, but introduce small mistakes that
yield broken formulas. These mistakes, which can be both syntactic and
semantic, are hard for low-code users to identify and fix, even though they can
be resolved with just a few edits. We formalize the problem of producing such
edits as the last-mile repair problem. To address this problem, we developed
LaMirage, a LAst-MIle RepAir-engine GEnerator that combines symbolic and neural
techniques to perform last-mile repair in low-code formula languages. LaMirage
takes a grammar and a set of domain-specific constraints/rules, which jointly
approximate the target language, and uses these to generate a repair engine
that can fix formulas in that language. To tackle the challenges of localizing
the errors and ranking the candidate repairs, LaMirage leverages neural
techniques, whereas it relies on symbolic methods to generate candidate
repairs. This combination allows LaMirage to find repairs that satisfy the
provided grammar and constraints, and then pick the most natural repair. We
compare LaMirage to state-of-the-art neural and symbolic approaches on 400 real
Excel and PowerFx formulas, where LaMirage outperforms all baselines. We
release these benchmarks to encourage subsequent work in low-code domains.
- Abstract(参考訳): ExcelやPowerAppsのようなローコードプラットフォームのほとんどのユーザは、ドメイン固有の公式言語でプログラムを書き、非自明なタスクを実行する。
多くの場合、ユーザーは自分の望むプログラムのほとんどを書けるが、壊れた公式を生み出す小さなミスを導入する。
これらのミスは構文的にも意味的にも、ほんの数回の編集で解決できたとしても、ローコードユーザが識別し修正することは難しい。
ラストマイル修復問題として,このような編集の問題を定式化する。
この問題に対処するため,我々は,シンボリックとニューラルネットワークを組み合わせたラストマイル修理エンジン生成器であるlamirageを開発した。
LaMirageは文法とドメイン固有の制約/ルールのセットを持ち、ターゲット言語を互いに近似し、これらを使用して、その言語の式を修正可能な修復エンジンを生成する。
エラーのローカライズと修正候補のランク付けという課題に対処するために、lamirageはニューラルネットワークのテクニックを活用している。
この組み合わせにより、LaMirageは提供された文法と制約を満たす修復を見つけ、次に最も自然な修復を選択することができる。
我々はLaMirageを、400の実際のExcelとPowerFxの公式に対する最先端のニューラルネットワークとシンボリックアプローチと比較する。
これらのベンチマークをリリースして、ローコードドメインでのその後の作業を促進する。
関連論文リスト
- Repairs in a Block World: A New Benchmark for Handling User Corrections with Multi-Modal Language Models [48.42142115255159]
命令追従操作タスクにおけるマルチモーダルなTPRシーケンスのデータセットであるBlockWorld-Repairsをリリースする。
現状のビジョンと言語モデル(VLM)を複数の設定で評価し,TPRの処理能力と正確な応答性に着目した。
以上の結果から,これらのモデルはまだマルチモーダル・コラボレーティブ・セッティングにデプロイする準備が整っていないことが示唆された。
論文 参考訳(メタデータ) (2024-09-21T21:06:25Z) - Investigating the Transferability of Code Repair for Low-Resource Programming Languages [57.62712191540067]
大規模言語モデル(LLM)は、コード生成タスクにおいて顕著なパフォーマンスを示している。
近年の作業は、連鎖推論や蒸留といった現代的な技術を統合することで、コード修復のプロセスを強化している。
高低資源言語と低低資源言語の両方でコード修復を蒸留する利点について検討する。
論文 参考訳(メタデータ) (2024-06-21T05:05:39Z) - A Deep Dive into Large Language Models for Automated Bug Localization and Repair [12.756202755547024]
大規模言語モデル(LLM)は、自動プログラム修復(APR)など、様々なソフトウェアエンジニアリングタスクにおいて顕著な効果を示している。
本研究では,LSMを用いた自動バグ修正について深く検討する。
異なるLLMを用いてバグの局所化と修正を分離することにより、多様なコンテキスト情報の効果的な統合が可能になる。
Toggleは、CodeXGLUEコード改善ベンチマークで、新しい最先端(SOTA)パフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-04-17T17:48:18Z) - A Novel Approach for Automatic Program Repair using Round-Trip
Translation with Large Language Models [50.86686630756207]
研究によると、ある文の文法的誤りは、それを他の言語に翻訳し、その語を返せば修正できる。
現在の自動プログラム修復(APR)生成モデルは、ソースコードで事前訓練され、修正のために微調整されている。
本稿では,あるプログラミング言語から別のプログラミング言語,あるいは自然言語へのコード変換,そして,その逆といった,微調整ステップをバイパスし,ラウンド・トリップ変換(RTT)を用いる手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T22:36:31Z) - Neuron Patching: Semantic-based Neuron-level Language Model Repair for Code Generation [32.178931149612644]
ulModel ulImprovement via ulNeuron ulTargeting (textscMINT)は、コード言語モデル(LM)を修復するための新しいアプローチである。
textscMINTは有効で効率的で信頼性が高く、最小数のニューロンにパッチを当てることで神経モデルを修正できる。
論文 参考訳(メタデータ) (2023-12-08T20:28:08Z) - Guess & Sketch: Language Model Guided Transpilation [59.02147255276078]
学習されたトランスパイレーションは、手作業による書き直しやエンジニアリングの取り組みに代わるものだ。
確率的ニューラルネットワークモデル(LM)は、入力毎に可塑性出力を生成するが、正確性を保証するコストがかかる。
Guess & Sketch は LM の特徴からアライメントと信頼性情報を抽出し、意味的等価性を解決するためにシンボリック・ソルバに渡す。
論文 参考訳(メタデータ) (2023-09-25T15:42:18Z) - Repair Is Nearly Generation: Multilingual Program Repair with LLMs [9.610685299268825]
Codexのようなコード(LLMC)でトレーニングされた大規模言語モデルを利用した多言語修復エンジンであるRingを紹介する。
プログラマが手動でバグを修正する方法からインスピレーションを得て、修復をローカライズ、トランスフォーメーション、候補ランキングとして概念化するプロンプトベースの戦略が、最小限の努力で複数のドメインでのプログラムの修復に成功できることを示す。
論文 参考訳(メタデータ) (2022-08-24T16:25:58Z) - Correcting Robot Plans with Natural Language Feedback [88.92824527743105]
ロボットの修正のための表現的かつ柔軟なツールとして自然言語を探索する。
これらの変換により、ユーザは目標を正し、ロボットの動きを更新し、計画上のエラーから回復できる。
本手法により,シミュレーション環境や実環境において,複数の制約を合成し,未知のシーン,オブジェクト,文に一般化することが可能となる。
論文 参考訳(メタデータ) (2022-04-11T15:22:43Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。