論文の概要: ANPL: Compiling Natural Programs with Interactive Decomposition
- arxiv url: http://arxiv.org/abs/2305.18498v1
- Date: Mon, 29 May 2023 14:19:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 20:05:06.154938
- Title: ANPL: Compiling Natural Programs with Interactive Decomposition
- Title(参考訳): ANPL: インタラクティブな分解による自然プログラムのコンパイル
- Authors: Di Huang, Ziyuan Nan, Xing Hu, Pengwei Jin, Shaohui Peng, Yuanbo Wen,
Rui Zhang, Zidong Du, Qi Guo, Yewen Pu, Yunji Chen
- Abstract要約: 本稿では,ユーザ固有のタスクを分解可能なプログラミングシステムANPLを紹介する。
ANPLプログラムでは、ユーザは、生成されたプログラムのデータフローを指定するスケッチを直接操作することができる。
私たちは、最先端のAIシステムでは困難な、ユニークなタスクのセットであるARC(Abstraction and Reasoning Corpus)にANPLをデプロイします。
- 参考スコア(独自算出の注目度): 25.860058127910737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advents of Large Language Models (LLMs) have shown promise in augmenting
programming using natural interactions. However, while LLMs are proficient in
compiling common usage patterns into a programming language, e.g., Python, it
remains a challenge how to edit and debug an LLM-generated program. We
introduce ANPL, a programming system that allows users to decompose
user-specific tasks. In an ANPL program, a user can directly manipulate sketch,
which specifies the data flow of the generated program. The user annotates the
modules, or hole with natural language descriptions offloading the expensive
task of generating functionalities to the LLM. Given an ANPL program, the ANPL
compiler generates a cohesive Python program that implements the
functionalities in hole, while respecting the dataflows specified in sketch. We
deploy ANPL on the Abstraction and Reasoning Corpus (ARC), a set of unique
tasks that are challenging for state-of-the-art AI systems, showing it
outperforms baseline programming systems that (a) without the ability to
decompose tasks interactively and (b) without the guarantee that the modules
can be correctly composed together. We obtain a dataset consisting of 300/400
ARC tasks that were successfully decomposed and grounded in Python, providing
valuable insights into how humans decompose programmatic tasks. See the dataset
at https://iprc-dip.github.io/DARC.
- Abstract(参考訳): 大規模言語モデル(llms)の出現により、自然相互作用を用いたプログラミングの強化が期待されている。
しかし、LLMはプログラミング言語、例えばPythonに共通使用パターンをコンパイルするのに熟練しているが、LLM生成プログラムの編集とデバッグは依然として難しい。
本稿では,ユーザ固有のタスクを分解可能なプログラミングシステムANPLを紹介する。
ANPLプログラムでは、ユーザは、生成されたプログラムのデータフローを指定するスケッチを直接操作することができる。
ユーザはモジュールに注釈を付け、LLMに機能を生成する高価なタスクをオフロードする自然言語記述に穴を開ける。
ANPLプログラムが与えられた後、ANPLコンパイラは、スケッチで指定されたデータフローを尊重しながら、ホール内で機能を実装する密集したPythonプログラムを生成する。
私たちは、最先端のAIシステムでは困難な、ユニークなタスクのセットであるAbstraction and Reasoning Corpus(ARC)にANPLをデプロイし、ベースラインプログラミングシステムよりも優れています。
(a)タスクを対話的に分解する機能を持たず
(b) モジュールが正しく構成できることを保証することなく。
我々は,Pythonで構築された300/400のARCタスクからなるデータセットを入手し,人間がプログラムタスクを分解する方法に関する貴重な洞察を提供する。
データセットはhttps://iprc-dip.github.io/darcを参照。
関連論文リスト
- Self-Training Large Language Models for Improved Visual Program Synthesis With Visual Reinforcement [93.73648674743097]
ビジュアルプログラム合成は、構成型コンピュータビジョンタスクのための大規模言語モデルの推論能力を利用するための有望なアプローチである。
それまでの作業では、視覚プログラムを合成するために、凍結LDMを使用した数発のプロンプトを使用していた。
トレーニング用ビジュアルプログラムのデータセットは存在せず、ビジュアルプログラムデータセットの取得は簡単にクラウドソーシングできない。
論文 参考訳(メタデータ) (2024-04-06T13:25:00Z) - Grounding Data Science Code Generation with Input-Output Specifications [32.07033683677839]
大規模言語モデル(LLM)は、最近、自然言語プロンプトからコードを生成する驚くべき能力を示した。
LLMは出力をNLプロンプトとI/O仕様の両方と整合させることが困難である。
I/O 仕様に対する LLM の微調整のための新しい手法である GIFT4Code を提案する。
論文 参考訳(メタデータ) (2024-02-12T21:32:49Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - LILO: Learning Interpretable Libraries by Compressing and Documenting Code [71.55208585024198]
LILOは、反復的に合成、圧縮、文書化を行う、ニューロシンボリックなフレームワークである。
LILOは、LLM誘導プログラム合成と、Stitchから自動化された最近のアルゴリズムの進歩を組み合わせたものである。
LILOのシンセサイザーが学習した抽象化を解釈し、デプロイするのを手助けすることで、AutoDocがパフォーマンスを向上させることが分かりました。
論文 参考訳(メタデータ) (2023-10-30T17:55:02Z) - Learning a Hierarchical Planner from Humans in Multiple Generations [21.045112705349222]
本稿では,プログラム型学習と階層型プランナを組み合わせたライブラリ学習システムである自然言語プログラミングについて述べる。
ユーザは、難しいが不可能ではない目標を特定することによって、カリキュラム構築を通じてシステムを教える。
このシステムは、言語ヒントを用いて、その確率分布を導く階層的計画を通じて目標を達成する。
論文 参考訳(メタデータ) (2023-10-17T22:28:13Z) - AskIt: Unified Programming Interface for Programming with Large Language
Models [0.0]
大規模言語モデル(LLM)は創発能力として知られるユニークな現象を示し、多くのタスクにまたがって適応性を示す。
本稿では,LLM用に特別に設計されたドメイン固有言語であるAskItを紹介する。
50タスクにわたって、AskItは簡潔なプロンプトを生成し、ベンチマークよりも16.14パーセントのプロンプト長の削減を実現した。
論文 参考訳(メタデータ) (2023-08-29T21:44:27Z) - ProgSG: Cross-Modality Representation Learning for Programs in
Electronic Design Automation [38.023395256208055]
高レベル合成(HLS)により、開発者はCとC++のソフトウェアコード形式で高レベルな記述をコンパイルできる。
HLSツールは相変わらず、プラグマで表されるマイクロアーキテクチャの決定を必要とする。
本稿では,ソースコードシーケンスのモダリティとグラフのモダリティを深く,きめ細かな方法で相互に相互作用させることができるProgSGを提案する。
論文 参考訳(メタデータ) (2023-05-18T09:44:18Z) - Low-code LLM: Graphical User Interface over Large Language Models [115.08718239772107]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
より制御可能で安定した応答を実現するために、6種類のシンプルなローコードビジュアルプログラミングインタラクションを組み込んでいる。
ユーザフレンドリなインタラクション,制御可能な生成,広い適用性という,低コード LLM の3つの利点を強調した。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z) - Hierarchical Programmatic Reinforcement Learning via Learning to Compose
Programs [58.94569213396991]
プログラムポリシーを作成するための階層型プログラム強化学習フレームワークを提案する。
提案するフレームワークは,プログラム作成の学習を通じて,アウト・オブ・ディストリビュータの複雑な動作を記述するプログラムポリシーを作成することができる。
Karel ドメインの実験結果から,提案するフレームワークがベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2023-01-30T14:50:46Z) - Procedures as Programs: Hierarchical Control of Situated Agents through
Natural Language [81.73820295186727]
エージェント命令と制御のための階層的な手続き的知識を表現する強力な手法である,プログラムとしての手続きの形式化を提案する。
NL命令に対するIQAおよびALFREDデータセット上で、このフレームワークをインスタンス化する。
論文 参考訳(メタデータ) (2021-09-16T20:36:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。