論文の概要: CoLadder: Supporting Programmers with Hierarchical Code Generation in
Multi-Level Abstraction
- arxiv url: http://arxiv.org/abs/2310.08699v1
- Date: Thu, 12 Oct 2023 20:07:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 02:53:00.680134
- Title: CoLadder: Supporting Programmers with Hierarchical Code Generation in
Multi-Level Abstraction
- Title(参考訳): CoLadder: 階層的なコード生成を多層抽象化でサポートするプログラマ
- Authors: Ryan Yen, Jiawen Zhu, Sangho Suh, Haijun Xia, Jian Zhao
- Abstract要約: CoLadderは、階層的なタスク分解、インクリメンタルコード生成、そしてプロンプトオーサリング中の結果の検証を可能にすることで、プログラマを支援するシステムである。
12人の経験豊富なプログラマによるユーザスタディによると、CoLadderはプログラマがメンタルモデルを柔軟に外部化するのに役立つ。
- 参考スコア(独自算出の注目度): 16.325032481071997
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Programmers increasingly rely on Large Language Models (LLMs) for code
generation. However, they now have to deal with issues like having to
constantly switch between generating and verifying code, caused by misalignment
between programmers' prompts and the generated code. Unfortunately, current
LLM-driven code assistants provide insufficient support during the prompt
authoring process to help programmers tackle these challenges emerging from the
new workflow. To address these challenges, we employed an iterative design
process to understand programmers' strategies when programming with LLMs. Based
on our findings, we developed CoLadder, a system that assists programmers by
enabling hierarchical task decomposition, incremental code generation, and
verification of results during prompt authoring. A user study with 12
experienced programmers showed that CoLadder is effective in helping
programmers externalize their mental models flexibly, improving their ability
to navigate and edit code across various abstraction levels, from initial
intent to final code implementation.
- Abstract(参考訳): プログラマはコード生成にLarge Language Models (LLM) をますます頼りにしている。
しかし現在では、プログラマのプロンプトと生成されたコードの不一致によって引き起こされるコードの生成と検証を常に切り替えるといった問題に対処する必要がある。
残念なことに、現在のllm駆動のコードアシスタントは、プロンプトオーサリングプロセス中に不十分なサポートを提供し、プログラマが新しいワークフローから出現するこれらの課題に取り組むのを助ける。
これらの課題に対処するために、LLMでプログラミングするプログラマの戦略を理解するために、反復的な設計プロセスを採用しました。
そこで我々は,階層的なタスク分解,インクリメンタルコード生成,即時オーサリングにおける結果の検証を可能にすることで,プログラマを支援するシステムCoLadderを開発した。
12人の経験豊富なプログラマによるユーザスタディによると、CoLadderは、プログラマがメンタルモデルを柔軟に外部化するのを支援し、初期意図から最終的なコード実装に至るまで、さまざまな抽象化レベルでコードをナビゲートし、編集する能力を向上する。
関連論文リスト
- A Pair Programming Framework for Code Generation via Multi-Plan Exploration and Feedback-Driven Refinement [24.25119206488625]
PairCoderは、コードを生成するための大規模言語モデル(LLM)のための新しいフレームワークである。
ハイレベルな計画のためのナビゲータエージェントと、特定の実装のためのドライバエージェントの2つのコラボレーティブエージェントが組み込まれている。
ドライバは、Navigatorの指示に従って、初期コード生成、コードテスト、改善を行う。
論文 参考訳(メタデータ) (2024-09-08T07:22:19Z) - No Man is an Island: Towards Fully Automatic Programming by Code Search, Code Generation and Program Repair [9.562123938545522]
ツールネームは、様々なコード検索、生成、修復ツールを統合することができ、これら3つの研究領域を初めて組み合わせることができる。
例えば、CodeLlamaは62.53%の改善で267のプログラミング問題を解決するのに役立ちます。
論文 参考訳(メタデータ) (2024-09-05T06:24:29Z) - Sifting through the Chaff: On Utilizing Execution Feedback for Ranking the Generated Code Candidates [46.74037090843497]
大規模言語モデル(LLM)は、自然言語記述に基づいたコードの自動生成によって、開発者がプログラミングにアプローチする方法を変えつつある。
本稿では,実行フィードバックを活用するコードランキングの革新的なアプローチである RankEF について述べる。
3つのコード生成ベンチマークの実験では、RanEFが最先端のCodeRankerよりも大幅に優れていることが示されている。
論文 参考訳(メタデータ) (2024-08-26T01:48:57Z) - NoviCode: Generating Programs from Natural Language Utterances by Novices [59.71218039095155]
初心者非プログラマによるAPIと自然言語記述を入力とする新しいNLプログラミングタスクであるNoviCodeを提示する。
我々は、NoviCodeがコード合成領域における挑戦的なタスクであることを示し、非技術的命令から複雑なコードを生成することは、現在のText-to-Codeパラダイムを超えている。
論文 参考訳(メタデータ) (2024-07-15T11:26:03Z) - MTLLM: LLMs are Meaning-Typed Code Constructs [7.749453456370407]
本稿では,大規模言語モデル(LLM)をプログラミングに統合するための簡易なアプローチを提案する。
提案手法は,従来のプログラミング言語と自然言語を自動的に翻訳するために,既存のプログラムのセマンティック・リッチネスを利用する。
そこで本研究では,SOTA LLMソフトウェア開発ツールと比較し,本手法の完全機能および実運用レベルの実装について述べる。
論文 参考訳(メタデータ) (2024-05-14T21:12:01Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
我々は,LLMの性能を高めるため,グラフィカル検索拡張コード生成フレームワークであるCodeGRAGを提案する。
CodeGRAGは、制御フローとデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミング言語と自然言語のギャップを埋める。
ハードメタグラフプロンプト、ソフトプロンプト技術、事前訓練されたGNN専門家の目的の有効性を検証するために、C++言語とピソン言語の両方を含む4つのデータセットで様々な実験と改善が行われた。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - Comments as Natural Logic Pivots: Improve Code Generation via Comment Perspective [85.48043537327258]
本稿では, MANGO (comMents As Natural loGic pivOts) を提案する。
その結果、MANGOは強いベースラインに基づいてコードパス率を大幅に改善することがわかった。
論理的なコメントの復号化戦略の堅牢性は、考えの連鎖よりも顕著に高い。
論文 参考訳(メタデータ) (2024-04-11T08:30:46Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Function-constrained Program Synthesis [12.55507214959886]
大規模言語モデル(LLM)は、開発環境で利用可能なすべてのコードを描画することで、リアルタイムでコードを生成することができる。
現在のシステムには効果的なリカバリ方法が欠如しており、ユーザーは十分な解に到達するまで、修正されたプロンプトでモデルを反復的に再起動せざるを得ない。
提案手法は,コード生成を明示的な関数集合に制約し,自動生成されたサブ関数を通じて失敗した試行からのリカバリを可能にする。
論文 参考訳(メタデータ) (2023-11-27T02:55:34Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z) - ReACC: A Retrieval-Augmented Code Completion Framework [53.49707123661763]
本稿では,語彙のコピーと類似したセマンティクスを持つコード参照の両方を検索により活用する検索拡張コード補完フレームワークを提案する。
我々は,Python および Java プログラミング言語のコード補完タスクにおけるアプローチを評価し,CodeXGLUE ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-15T08:25:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。