論文の概要: An Empirical Study of Developer-Provided Context for AI Coding Assistants in Open-Source Projects
- arxiv url: http://arxiv.org/abs/2512.18925v1
- Date: Sun, 21 Dec 2025 23:51:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.558119
- Title: An Empirical Study of Developer-Provided Context for AI Coding Assistants in Open-Source Projects
- Title(参考訳): オープンソースプロジェクトにおけるAIコーディングアシスタントの開発者提供コンテキストに関する実証的研究
- Authors: Shaokang Jiang, Daye Nam,
- Abstract要約: 本稿では,開発者が提供するコンテキストの出現形態を特徴付けるための大規模な実証的研究について述べる。
我々は、開発者が本質的と考えるプロジェクトコンテキストの包括的な分類法を5つのハイレベルなテーマにまとめて開発した。
この状況が、プロジェクトタイプやプログラミング言語によってどのように異なるかについても検討しています。
- 参考スコア(独自算出の注目度): 2.392035679895744
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Large Language Models (LLMs) have demonstrated remarkable capabilities, research shows that their effectiveness depends not only on explicit prompts but also on the broader context provided. This requirement is especially pronounced in software engineering, where the goals, architecture, and collaborative conventions of an existing project play critical roles in response quality. To support this, many AI coding assistants have introduced ways for developers to author persistent, machine-readable directives that encode a project's unique constraints. Although this practice is growing, the content of these directives remains unstudied. This paper presents a large-scale empirical study to characterize this emerging form of developer-provided context. Through a qualitative analysis of 401 open-source repositories containing cursor rules, we developed a comprehensive taxonomy of project context that developers consider essential, organized into five high-level themes: Conventions, Guidelines, Project Information, LLM Directives, and Examples. Our study also explores how this context varies across different project types and programming languages, offering implications for the next generation of context-aware AI developer tools.
- Abstract(参考訳): LLM(Large Language Models)は目覚ましい能力を示しているが、その効果は明示的なプロンプトだけでなく、提供されたより広い文脈にも依存している。
この要件はソフトウェア工学において特に顕著であり、既存のプロジェクトの目標、アーキテクチャ、協調的な慣習が応答品質において重要な役割を果たす。
これをサポートするために、多くのAIコーディングアシスタントは、開発者がプロジェクトのユニークな制約をエンコードする永続的で機械可読なディレクティブを書く方法を導入した。
この習慣は成長しているが、これらの指令の内容は未検討のままである。
本稿では、この開発者が提供するコンテキストの出現形態を特徴付けるための大規模な実証的研究について述べる。
カーソルルールを含む401のオープンソースリポジトリの質的分析を通じて、開発者が本質的と考えるプロジェクトコンテキストの包括的分類法を開発し、コンベンション、ガイドライン、プロジェクト情報、LCMディレクティブ、例の5つのハイレベルなテーマに分類した。
私たちの研究では、このコンテキストがさまざまなプロジェクトタイプやプログラミング言語にまたがってどのように変化し、次世代のコンテキスト対応AI開発ツールに影響を及ぼすかについても検討しています。
関連論文リスト
- Learning to Code with Context: A Study-Based Approach [0.28675177318965045]
生成AIツールの急速な出現は、ソフトウェアの開発方法を変えつつある。
プロジェクトベースのコースは、実世界の開発プラクティスへのAIアシストの統合を探求し、評価するための効果的な環境を提供する。
本稿では,学生が共同でコンピュータゲームを開発する大学プログラミングプロジェクトにおいて,本手法とユーザスタディについて述べる。
論文 参考訳(メタデータ) (2025-12-04T20:40:36Z) - Context Engineering for AI Agents in Open-Source Software [13.236926479239754]
GenAIベースのコーディングアシスタントは、ソフトウェア開発を混乱させた。
彼らの次の世代はエージェントベースで、より自律的で、潜在的には人間の監視なしで活動する。
ひとつの課題は、AIエージェントに対して、彼らが運用するソフトウェアプロジェクトに関する十分なコンテキストを提供することだ。
論文 参考訳(メタデータ) (2025-10-24T12:55:48Z) - A Survey of Vibe Coding with Large Language Models [93.88284590533242]
視覚符号化(Vibe Coding)は、開発者が成果観察を通じてAI生成の実装を検証する開発手法である。
変革の可能性にもかかわらず、この創発的パラダイムの有効性は未解明のままである。
この調査は、大規模な言語モデルによるVibe Codingの総合的かつ体系的なレビューを初めて提供する。
論文 参考訳(メタデータ) (2025-10-14T11:26:56Z) - A Survey on Code Generation with LLM-based Agents [61.474191493322415]
大規模言語モデル(LLM)を利用したコード生成エージェントは、ソフトウェア開発パラダイムに革命をもたらしている。
LLMは3つのコア特徴によって特徴づけられる。
本稿では,LLMに基づくコード生成エージェントの分野を体系的に調査する。
論文 参考訳(メタデータ) (2025-07-31T18:17:36Z) - MERA Code: A Unified Framework for Evaluating Code Generation Across Tasks [56.34018316319873]
我々は,最新のLLMをロシア語で評価するためのベンチマークであるMERA Codeを提案する。
このベンチマークには、8つのプログラミング言語にまたがる11の評価タスクが含まれている。
我々はオープンなLLMとフロンティアAPIモデルを評価し、非英語言語における実用的なコーディングタスクの観点からそれらの制限を分析した。
論文 参考訳(メタデータ) (2025-07-16T14:31:33Z) - Prompting Large Language Models to Tackle the Full Software Development Lifecycle: A Case Study [72.24266814625685]
DevEvalでソフトウェア開発ライフサイクル全体にわたって、大きな言語モデル(LLM)のパフォーマンスを調査します。
DevEvalは4つのプログラミング言語、複数のドメイン、高品質なデータ収集、各タスクに対して慎重に設計および検証されたメトリクスを備えている。
GPT-4を含む現在のLLMは、DevEvalで提示される課題を解決できないことが実証研究によって示されている。
論文 参考訳(メタデータ) (2024-03-13T15:13:44Z) - A Survey on Knowledge Distillation of Large Language Models [99.11900233108487]
知識蒸留(KD)は、高度な能力をオープンソースモデルに転送するための重要な方法論である。
本稿では,大規模言語モデル(LLM)の領域におけるKDの役割を包括的に調査する。
論文 参考訳(メタデータ) (2024-02-20T16:17:37Z) - Code Ownership in Open-Source AI Software Security [18.779538756226298]
コードオーナシップのメトリクスを使用して、5つの著名なオープンソースAIソフトウェアプロジェクトにおける潜在的な脆弱性との相関を調査します。
この結果は、ハイレベルなオーナシップ(マイナーなコントリビュータの数が限られている)と脆弱性の減少との間に肯定的な関係があることを示唆している。
これらの新しいコードオーナシップメトリクスによって、プロジェクトキュレーターや品質保証の専門家が現場プロジェクトを評価し、ベンチマークするのを助けるために、Pythonベースのコマンドラインアプリケーションを実装しました。
論文 参考訳(メタデータ) (2023-12-18T00:37:29Z) - Representation of Developer Expertise in Open Source Software [12.583969739954526]
We use the World of Code infrastructure to extract the complete set of APIs in the file changed by the open source developer。
次に、API、開発者、プロジェクトのベクター表現にDoc2Vecの埋め込みを使用します。
これらの埋め込みがスキル空間の仮定トポロジを反映しているかどうかを評価する。
論文 参考訳(メタデータ) (2020-05-20T16:36:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。