論文の概要: CoLadder: Supporting Programmers with Hierarchical Code Generation in
Multi-Level Abstraction
- arxiv url: http://arxiv.org/abs/2310.08699v2
- Date: Tue, 26 Dec 2023 14:13:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 21:41:45.607541
- Title: CoLadder: Supporting Programmers with Hierarchical Code Generation in
Multi-Level Abstraction
- Title(参考訳): CoLadder: 階層的なコード生成を多層抽象化でサポートするプログラマ
- Authors: Ryan Yen, Jiawen Zhu, Sangho Suh, Haijun Xia, Jian Zhao
- Abstract要約: CoLadderは、階層的なタスク分解、直接コードセグメント操作、結果評価を容易にすることで、プログラマをサポートするシステムである。
12人の経験豊富なプログラマによるユーザスタディでは、CoLadderがプログラマの問題解決意図を柔軟に外部化するのに有効であることが示された。
- 参考スコア(独自算出の注目度): 16.325032481071997
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Programmers increasingly rely on Large Language Models (LLMs) for code
generation. However, misalignment between programmers' goals and generated code
complicates the code evaluation process and demands frequent switching between
prompt authoring and code evaluation. Yet, current LLM-driven code assistants
lack sufficient scaffolding to help programmers format intentions from their
overarching goals, a crucial step before translating these intentions into
natural language prompts. To address this gap, we adopted an iterative design
process to gain insights into programmers' strategies when using LLMs for
programming. Building on our findings, we created CoLadder, a system that
supports programmers by facilitating hierarchical task decomposition, direct
code segment manipulation, and result evaluation during prompt authoring. A
user study with 12 experienced programmers showed that CoLadder is effective in
helping programmers externalize their problem-solving intentions flexibly,
improving their ability to evaluate and modify code across various abstraction
levels, from goal to final code implementation.
- Abstract(参考訳): プログラマはコード生成にLarge Language Models (LLM) をますます頼りにしている。
しかし、プログラマの目標と生成されたコードとのミスアライメントは、コード評価プロセスを複雑にし、プロンプトオーサリングとコード評価の切り替えを頻繁に要求する。
しかし、現在のLLM駆動のコードアシスタントは、プログラマが目標から意図をフォーマットするのに十分な足場がなく、これらの意図を自然言語のプロンプトに変換するための重要なステップである。
このギャップに対処するため、プログラミングにLLMを使用する場合、プログラマの戦略に関する洞察を得るために反復的な設計プロセスを採用しました。
そこで我々はCoLadderを開発した。CoLadderは,階層的なタスクの分解,コードセグメントの直接操作,プロンプトオーサリング時の結果評価を支援するシステムである。
12人の経験豊富なプログラマによるユーザスタディによると、CoLadderはプログラマが問題解決の意図を柔軟に外部化するのを支援し、目標から最終的なコード実装に至るまで、さまざまな抽象化レベルにわたるコードの評価と修正の能力を向上する。
関連論文リスト
- CodeGRAG: Extracting Composed Syntax Graphs for Retrieval Augmented Cross-Lingual Code Generation [60.799992690487336]
単一ラウンドのコード生成タスクにおいて,LLMの性能を向上させるための構文グラフ検索コード生成(CodeGRAG)を提案する。
CodeGRAGはLLMのコード生成能力を大幅に改善し、言語間コード生成のパフォーマンス向上も実現している。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - CodeCloak: A Method for Evaluating and Mitigating Code Leakage by LLM Code Assistants [23.462703429753706]
LLMベースのコードアシスタントを使用する場合、コード漏洩のリスクを軽減するための2つの補完手法を提案する。
1つ目は、コードアシスタントサービスに送信されたコードセグメントから、開発者のオリジナルを再構築するテクニックである。
2つ目は、コードアシスタントサービスに送信する前にプロンプトを操作する、新しいディープ強化学習エージェントであるCodeCloakである。
論文 参考訳(メタデータ) (2024-04-13T19:30:58Z) - Comments as Natural Logic Pivots: Improve Code Generation via Comment Perspective [85.48043537327258]
本稿では, MANGO (comMents As Natural loGic pivOts) を提案する。
その結果、MANGOは強いベースラインに基づいてコードパス率を大幅に改善することがわかった。
論理的なコメントの復号化戦略の堅牢性は、考えの連鎖よりも顕著に高い。
論文 参考訳(メタデータ) (2024-04-11T08:30:46Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Function-constrained Program Synthesis [12.55507214959886]
大規模言語モデル(LLM)は、開発環境で利用可能なすべてのコードを描画することで、リアルタイムでコードを生成することができる。
現在のシステムには効果的なリカバリ方法が欠如しており、ユーザーは十分な解に到達するまで、修正されたプロンプトでモデルを反復的に再起動せざるを得ない。
提案手法は,コード生成を明示的な関数集合に制約し,自動生成されたサブ関数を通じて失敗した試行からのリカバリを可能にする。
論文 参考訳(メタデータ) (2023-11-27T02:55:34Z) - CodeChain: Towards Modular Code Generation Through Chain of Self-revisions with Representative Sub-modules [51.82044734879657]
我々は,自己修正の連鎖を通じてモジュール化されたコード生成を誘発する,新しい推論フレームワークであるCodeChainを提案する。
CodeChainは、生成したソリューションのモジュール性と正確性の両方を大幅に向上させ、APPSで35%、CodeContestsで76%の相対パス@1の改善を実現しています。
論文 参考訳(メタデータ) (2023-10-13T10:17:48Z) - Benchmarking and Explaining Large Language Model-based Code Generation:
A Causality-Centric Approach [12.214585409361126]
大規模言語モデル(LLM)ベースのコード生成は複雑で強力なブラックボックスモデルである。
本稿では,プロンプトと生成されたコードの因果グラフに基づく新しい表現を提案する。
我々は,12以上の迅速な調整戦略で3つの人気のあるLCMを研究することで,我々のフレームワークが提供できる洞察について説明する。
論文 参考訳(メタデータ) (2023-10-10T14:56:26Z) - Test-Case-Driven Programming Understanding in Large Language Models for
Better Code Generation [15.166827643436346]
muFiXは、大きな言語モデル(LLM)のコード生成性能を改善する新しいプロンプト技術である。
まず、テストケース分析を利用して仕様の理解を得、自己改善プロセスを可能にする。
muFiXはさらに、提供された理解と実際の理解の間のギャップを減らす方向に向けた仕様理解を修正している。
論文 参考訳(メタデータ) (2023-09-28T02:58:07Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z) - Think Outside the Code: Brainstorming Boosts Large Language Models in
Code Generation [9.904734169174356]
本稿では,コード生成のためのBrainstormフレームワークを紹介する。
ブレインストーミングのステップを利用して、問題に関するさまざまな思考を生成し、選択する。
Brainstormは、LLMが競合レベルのプログラミング問題を解決する能力を大幅に強化する。
論文 参考訳(メタデータ) (2023-05-18T03:32:54Z) - ReACC: A Retrieval-Augmented Code Completion Framework [53.49707123661763]
本稿では,語彙のコピーと類似したセマンティクスを持つコード参照の両方を検索により活用する検索拡張コード補完フレームワークを提案する。
我々は,Python および Java プログラミング言語のコード補完タスクにおけるアプローチを評価し,CodeXGLUE ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-15T08:25:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。