論文の概要: CoLadder: Supporting Programmers with Hierarchical Code Generation in
Multi-Level Abstraction
- arxiv url: http://arxiv.org/abs/2310.08699v2
- Date: Tue, 26 Dec 2023 14:13:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 21:41:45.607541
- Title: CoLadder: Supporting Programmers with Hierarchical Code Generation in
Multi-Level Abstraction
- Title(参考訳): CoLadder: 階層的なコード生成を多層抽象化でサポートするプログラマ
- Authors: Ryan Yen, Jiawen Zhu, Sangho Suh, Haijun Xia, Jian Zhao
- Abstract要約: CoLadderは、階層的なタスク分解、直接コードセグメント操作、結果評価を容易にすることで、プログラマをサポートするシステムである。
12人の経験豊富なプログラマによるユーザスタディでは、CoLadderがプログラマの問題解決意図を柔軟に外部化するのに有効であることが示された。
- 参考スコア(独自算出の注目度): 16.325032481071997
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Programmers increasingly rely on Large Language Models (LLMs) for code
generation. However, misalignment between programmers' goals and generated code
complicates the code evaluation process and demands frequent switching between
prompt authoring and code evaluation. Yet, current LLM-driven code assistants
lack sufficient scaffolding to help programmers format intentions from their
overarching goals, a crucial step before translating these intentions into
natural language prompts. To address this gap, we adopted an iterative design
process to gain insights into programmers' strategies when using LLMs for
programming. Building on our findings, we created CoLadder, a system that
supports programmers by facilitating hierarchical task decomposition, direct
code segment manipulation, and result evaluation during prompt authoring. A
user study with 12 experienced programmers showed that CoLadder is effective in
helping programmers externalize their problem-solving intentions flexibly,
improving their ability to evaluate and modify code across various abstraction
levels, from goal to final code implementation.
- Abstract(参考訳): プログラマはコード生成にLarge Language Models (LLM) をますます頼りにしている。
しかし、プログラマの目標と生成されたコードとのミスアライメントは、コード評価プロセスを複雑にし、プロンプトオーサリングとコード評価の切り替えを頻繁に要求する。
しかし、現在のLLM駆動のコードアシスタントは、プログラマが目標から意図をフォーマットするのに十分な足場がなく、これらの意図を自然言語のプロンプトに変換するための重要なステップである。
このギャップに対処するため、プログラミングにLLMを使用する場合、プログラマの戦略に関する洞察を得るために反復的な設計プロセスを採用しました。
そこで我々はCoLadderを開発した。CoLadderは,階層的なタスクの分解,コードセグメントの直接操作,プロンプトオーサリング時の結果評価を支援するシステムである。
12人の経験豊富なプログラマによるユーザスタディによると、CoLadderはプログラマが問題解決の意図を柔軟に外部化するのを支援し、目標から最終的なコード実装に至るまで、さまざまな抽象化レベルにわたるコードの評価と修正の能力を向上する。
関連論文リスト
- A Pair Programming Framework for Code Generation via Multi-Plan Exploration and Feedback-Driven Refinement [24.25119206488625]
PairCoderは、コードを生成するための大規模言語モデル(LLM)のための新しいフレームワークである。
ハイレベルな計画のためのナビゲータエージェントと、特定の実装のためのドライバエージェントの2つのコラボレーティブエージェントが組み込まれている。
ドライバは、Navigatorの指示に従って、初期コード生成、コードテスト、改善を行う。
論文 参考訳(メタデータ) (2024-09-08T07:22:19Z) - No Man is an Island: Towards Fully Automatic Programming by Code Search, Code Generation and Program Repair [9.562123938545522]
ツールネームは、様々なコード検索、生成、修復ツールを統合することができ、これら3つの研究領域を初めて組み合わせることができる。
例えば、CodeLlamaは62.53%の改善で267のプログラミング問題を解決するのに役立ちます。
論文 参考訳(メタデータ) (2024-09-05T06:24:29Z) - Sifting through the Chaff: On Utilizing Execution Feedback for Ranking the Generated Code Candidates [46.74037090843497]
大規模言語モデル(LLM)は、自然言語記述に基づいたコードの自動生成によって、開発者がプログラミングにアプローチする方法を変えつつある。
本稿では,実行フィードバックを活用するコードランキングの革新的なアプローチである RankEF について述べる。
3つのコード生成ベンチマークの実験では、RanEFが最先端のCodeRankerよりも大幅に優れていることが示されている。
論文 参考訳(メタデータ) (2024-08-26T01:48:57Z) - NoviCode: Generating Programs from Natural Language Utterances by Novices [59.71218039095155]
初心者非プログラマによるAPIと自然言語記述を入力とする新しいNLプログラミングタスクであるNoviCodeを提示する。
我々は、NoviCodeがコード合成領域における挑戦的なタスクであることを示し、非技術的命令から複雑なコードを生成することは、現在のText-to-Codeパラダイムを超えている。
論文 参考訳(メタデータ) (2024-07-15T11:26:03Z) - MTLLM: LLMs are Meaning-Typed Code Constructs [7.749453456370407]
本稿では,大規模言語モデル(LLM)をプログラミングに統合するための簡易なアプローチを提案する。
提案手法は,従来のプログラミング言語と自然言語を自動的に翻訳するために,既存のプログラムのセマンティック・リッチネスを利用する。
そこで本研究では,SOTA LLMソフトウェア開発ツールと比較し,本手法の完全機能および実運用レベルの実装について述べる。
論文 参考訳(メタデータ) (2024-05-14T21:12:01Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
我々は,LLMの性能を高めるため,グラフィカル検索拡張コード生成フレームワークであるCodeGRAGを提案する。
CodeGRAGは、制御フローとデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミング言語と自然言語のギャップを埋める。
ハードメタグラフプロンプト、ソフトプロンプト技術、事前訓練されたGNN専門家の目的の有効性を検証するために、C++言語とピソン言語の両方を含む4つのデータセットで様々な実験と改善が行われた。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - Comments as Natural Logic Pivots: Improve Code Generation via Comment Perspective [85.48043537327258]
本稿では, MANGO (comMents As Natural loGic pivOts) を提案する。
その結果、MANGOは強いベースラインに基づいてコードパス率を大幅に改善することがわかった。
論理的なコメントの復号化戦略の堅牢性は、考えの連鎖よりも顕著に高い。
論文 参考訳(メタデータ) (2024-04-11T08:30:46Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Function-constrained Program Synthesis [12.55507214959886]
大規模言語モデル(LLM)は、開発環境で利用可能なすべてのコードを描画することで、リアルタイムでコードを生成することができる。
現在のシステムには効果的なリカバリ方法が欠如しており、ユーザーは十分な解に到達するまで、修正されたプロンプトでモデルを反復的に再起動せざるを得ない。
提案手法は,コード生成を明示的な関数集合に制約し,自動生成されたサブ関数を通じて失敗した試行からのリカバリを可能にする。
論文 参考訳(メタデータ) (2023-11-27T02:55:34Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z) - ReACC: A Retrieval-Augmented Code Completion Framework [53.49707123661763]
本稿では,語彙のコピーと類似したセマンティクスを持つコード参照の両方を検索により活用する検索拡張コード補完フレームワークを提案する。
我々は,Python および Java プログラミング言語のコード補完タスクにおけるアプローチを評価し,CodeXGLUE ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-15T08:25:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。