論文の概要: Curiosity by Design: An LLM-based Coding Assistant Asking Clarification Questions
- arxiv url: http://arxiv.org/abs/2507.21285v1
- Date: Mon, 28 Jul 2025 19:10:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.252198
- Title: Curiosity by Design: An LLM-based Coding Assistant Asking Clarification Questions
- Title(参考訳): 設計の好奇心:LLMベースのコーディングアシスタントが明確化の疑問を投げかける
- Authors: Harsh Darji, Thibaud Lutellier,
- Abstract要約: この作業は、人間のコードレビュープロセスを模倣するLLMベースのコーディングアシスタントを構築することを目的としている。
エンドツーエンドシステムには,(1)不明瞭なプログラミング関連クエリを検出するために訓練されたクエリ,(2)明確化質問を生成する微調整LDMが含まれている。
- 参考スコア(独自算出の注目度): 4.2689345057164205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly used as coding assistants. However, the ambiguity of the developer's prompt often leads to incorrect code generation, as current models struggle to infer user intent without extensive prompt engineering or external context. This work aims to build an LLM-based coding assistant that mimics the human code review process by asking clarification questions when faced with ambiguous or under-specified queries. Our end-to-end system includes (1) a query classifier trained to detect unclear programming-related queries and (2) a fine-tuned LLM that generates clarification questions. Our evaluation shows that the fine-tuned LLM outperforms standard zero-shot prompting in generating useful clarification questions. Furthermore, our user study indicates that users find the clarification questions generated by our model to outperform the baseline, demonstrating that our coding assistant produces more accurate and helpful code responses compared to baseline coding assistants.
- Abstract(参考訳): 大規模言語モデル(LLM)は、コーディングアシスタントとしてますます使われている。
しかしながら、開発者のプロンプトの曖昧さは、しばしば誤ったコード生成につながる。
本研究の目的は,不明瞭なクエリや不明確なクエリに直面する場合の明確化を問うことで,人間のコードレビュープロセスを模倣したLLMベースのコーディングアシスタントを構築することである。
エンドツーエンドシステムには,(1)不明瞭なプログラミング関連クエリを検出するために訓練されたクエリ分類器,(2)明確化質問を生成する微調整LDMが含まれている。
評価の結果, 微調整LDMでは, 標準のゼロショットプロンプトよりも優れており, 有効解答が得られていることがわかった。
さらに,本研究では,ベースラインよりも精度が高く,コーディングアシスタントがベースラインのコーディングアシスタントよりも有意なコード応答を生成できることを示す。
関連論文リスト
- Do AI models help produce verified bug fixes? [62.985237003585674]
大規模言語モデルは、ソフトウェアバグの修正に使用される。
本稿では,プログラマが大規模言語モデルを用いて,自身のスキルを補完する方法について検討する。
その結果は、プログラムバグに対する保証された修正を提供するAIとLLMの適切な役割への第一歩となる。
論文 参考訳(メタデータ) (2025-07-21T17:30:16Z) - HumanEvalComm: Benchmarking the Communication Competence of Code Generation for LLMs and LLM Agent [2.8391355909797644]
大規模言語モデル(LLM)は、コード生成の分野でタスクを実行する能力を大幅に改善した。
LLMが有能なプログラマであることと、最上位のソフトウェアエンジニアであることの間にはまだギャップがある。
論文 参考訳(メタデータ) (2024-05-31T22:06:18Z) - InfiBench: Evaluating the Question-Answering Capabilities of Code Large Language Models [56.723509505549536]
InfiBenchは、私たちの知識に合ったコードのための、最初の大規模フリーフォーム質問回答(QA)ベンチマークです。
慎重に選択された234の高品質なStack Overflow質問で構成されており、15のプログラミング言語にまたがっている。
InfiBench上で100以上の最新のコードLLMに対して,系統的評価を行い,新しい知見と洞察に富んだ結果を得た。
論文 参考訳(メタデータ) (2024-03-11T02:06:30Z) - Code Prompting Elicits Conditional Reasoning Abilities in Text+Code LLMs [65.2379940117181]
自然言語の問題をコードに変換する一連のプロンプトであるコードプロンプトを導入します。
コードプロンプトは複数のLLMに対して高速に向上することがわかった。
GPT 3.5を解析した結果,入力問題のコードフォーマッティングが性能向上に不可欠であることが判明した。
論文 参考訳(メタデータ) (2024-01-18T15:32:24Z) - Large Language Models Should Ask Clarifying Questions to Increase
Confidence in Generated Code [0.7252027234425334]
大規模言語モデル(LLM)は、コード生成の分野でタスクを実行する能力を大幅に改善した。
LLMが有能なプログラマであることと、最上位のソフトウェアエンジニアであることの間にはまだギャップがある。
本稿では,LLM生成コミュニケータを用いて,問題記述や生成されたコードに対する曖昧さや信頼性の低い問題を識別する通信中心プロセスを提案する。
論文 参考訳(メタデータ) (2023-08-25T17:33:05Z) - Using an LLM to Help With Code Understanding [13.53616539787915]
大規模言語モデル(LLM)は、コードを書くプロセスに革命をもたらしています。
プラグインはOpenAIのGPT-3.5-turboモデルに対して,ユーザが明示的なプロンプトを書かなくても4つの高レベルリクエストをクエリする。
本システムの評価は,32名の被験者を対象に行ったユーザスタディで行われ,本プラグインがWeb検索よりもタスク完了に有効であることが確認された。
論文 参考訳(メタデータ) (2023-07-17T00:49:06Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。