論文の概要: Codetations: Intelligent, Persistent Notes and UIs for Programs and Other Documents
- arxiv url: http://arxiv.org/abs/2504.18702v1
- Date: Fri, 25 Apr 2025 21:33:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.952028
- Title: Codetations: Intelligent, Persistent Notes and UIs for Programs and Other Documents
- Title(参考訳): コード: プログラムやその他のドキュメントのためのインテリジェントで永続的なメモとUI
- Authors: Edward Misback, Erik Vank, Zachary Tatlock, Steven Tanimoto,
- Abstract要約: Codetationsは、開発者がリッチなノートやツールで文書をコンテキスト化するのを助けるシステムです。
以前のアプローチとは異なり、Codetationsのノートはドキュメントの外に留まり、コードの乱雑さを防ぎ、ハイブリッドな編集追跡/LLMベースのメソッドを使用してドキュメント内のスパンにアタッチする。
彼らのコンテンツは動的でインタラクティブで、コードの変更と同期しています。
- 参考スコア(独自算出の注目度): 0.85830154886823
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Software developers maintain extensive mental models of code they produce and its context, often relying on memory to retrieve or reconstruct design decisions, edge cases, and debugging experiences. These missing links and data obstruct both developers and, more recently, large language models (LLMs) working with unfamiliar code. We present Codetations, a system that helps developers contextualize documents with rich notes and tools. Unlike previous approaches, notes in Codetations stay outside the document to prevent code clutter, attaching to spans in the document using a hybrid edit-tracking/LLM-based method. Their content is dynamic, interactive, and synchronized with code changes. A worked example shows that relevant notes with interactively-collected data improve LLM performance during code repair. In our user evaluation, developers praised these properties and saw significant potential in annotation types that we generated with an LLM in just a few minutes.
- Abstract(参考訳): ソフトウェア開発者は、作成するコードとそのコンテキストの広範なメンタルモデルを維持し、しばしば設計上の決定やエッジケース、デバッグ経験の検索や再構築にメモリに依存します。
これらの欠落したリンクとデータは、開発者と、より最近では、馴染みのないコードを扱う大きな言語モデル(LLM)の両方を妨げる。
Codetationsは、開発者がリッチなノートやツールで文書をコンテキスト化するのを助けるシステムです。
以前のアプローチとは異なり、Codetationsのノートはドキュメントの外に留まり、コードの乱雑さを防ぎ、ハイブリッドな編集追跡/LLMベースのメソッドを使用してドキュメント内のスパンにアタッチする。
彼らのコンテンツは動的でインタラクティブで、コードの変更と同期しています。
動作する例では、インタラクティブにコンパイルされたデータに関連するメモによって、コード修復時のLLMのパフォーマンスが向上することを示している。
私たちのユーザ評価では、開発者はこれらの特性を賞賛し、ほんの数分でLCMで生成されたアノテーションの型に大きな可能性を見出しました。
関連論文リスト
- Generating Move Smart Contracts based on Concepts [4.3764649156831235]
ConMoverは、Move用の大規模言語モデル(LLM)ベースのコード生成を強化する新しいフレームワークである。
概念検索、計画、コーディング、デバッグエージェントを反復的なプロセスに統合し、生成されたコードを洗練する。
論文 参考訳(メタデータ) (2024-12-17T04:07:45Z) - ContextModule: Improving Code Completion via Repository-level Contextual Information [11.459065573651348]
ContextModuleは生成されたコードの関連性と精度を改善する。
我々は,実世界のコーディング環境における遅延制約を満たすために,インデックスキャッシングなどの性能最適化を実装した。
論文 参考訳(メタデータ) (2024-12-11T03:15:49Z) - Building A Coding Assistant via the Retrieval-Augmented Language Model [24.654428111628242]
本研究では,コーディング中の人間の知識探索行動を模倣してコードアシスタントを構築するための検索補助言語モデル(CONAN)を提案する。
コード構造対応検索器(CONAN-R)とデュアルビューコード表現に基づく検索拡張生成モデル(CONAN-G)で構成される。
論文 参考訳(メタデータ) (2024-10-21T17:34:39Z) - Code Documentation and Analysis to Secure Software Development [0.0]
CoDATは、さまざまなレベルのコードドキュメント間の一貫性を維持するように設計されたツールである。
Intellij IDEAで実装されている。
私たちは、コードの断片とそれを記述するコメントの間のセマンティックな一貫性をチェックするために、大きな言語モデルを使用します。
論文 参考訳(メタデータ) (2024-07-16T17:25:44Z) - Beyond Functional Correctness: Investigating Coding Style Inconsistencies in Large Language Models [28.295926947968574]
大規模言語モデル(LLM)は、コード生成の分野にパラダイムシフトをもたらした。
我々は、コードLLMによって生成されたコードと、人間の開発者が書いたコードとのコーディングスタイルの違いを経験的に分析する。
論文 参考訳(メタデータ) (2024-06-29T14:56:11Z) - CodeRAG-Bench: Can Retrieval Augment Code Generation? [78.37076502395699]
検索拡張生成を用いたコード生成の系統的,大規模な解析を行う。
まず、コード生成タスクの3つのカテゴリを含む総合的な評価ベンチマークであるCodeRAG-Benchをキュレートする。
CodeRAG-Bench上のトップパフォーマンスモデルについて、1つまたは複数のソースから検索したコンテキストを提供することにより検討する。
論文 参考訳(メタデータ) (2024-06-20T16:59:52Z) - CodeEditorBench: Evaluating Code Editing Capability of Large Language Models [49.387195629660994]
コードのための大規模言語モデル(LLM)は急速に進化しており、コード編集が重要な機能として現れている。
コード編集タスクにおけるLLMの性能を厳格に評価するための評価フレームワークであるCodeEditorBenchを紹介する。
5つのソースからさまざまなコーディング課題やシナリオをキュレートし、さまざまなプログラミング言語、複雑性レベル、編集タスクをカバーしています。
論文 参考訳(メタデータ) (2024-04-04T15:49:49Z) - SparseCoder: Identifier-Aware Sparse Transformer for File-Level Code
Summarization [51.67317895094664]
本稿では,大規模なソースコードプロジェクトの理解と維持を支援するファイルレベルのコード要約について検討する。
長いコードシーケンスを効果的に処理するための識別子対応スパース変換器であるSparseCoderを提案する。
論文 参考訳(メタデータ) (2024-01-26T09:23:27Z) - InterCode: Standardizing and Benchmarking Interactive Coding with
Execution Feedback [50.725076393314964]
標準的な強化学習環境として,インタラクティブコーディングの軽量でフレキシブルで使いやすいフレームワークであるInterCodeを紹介した。
私たちのフレームワークは、言語とプラットフォームに依存しない、自己完結型のDocker環境を使用して、安全で再現可能な実行を提供します。
我々は、異なるプロンプト戦略で構成された複数の最先端LLMを評価することにより、InterCodeの生存性をテストベッドとして示す。
論文 参考訳(メタデータ) (2023-06-26T17:59:50Z) - CoCoMIC: Code Completion By Jointly Modeling In-file and Cross-file
Context [82.88371379927112]
予め訓練されたコード LM 上で,ファイル内コンテキストとファイル内コンテキストを協調的に学習するための,クロスファイルコンテキストを組み込んだフレームワークを提案する。
CoCoMICは既存のコードLMを33.94%の精度で改善し、クロスファイルコンテキストが提供されるとコード補完のための識別子マッチングが28.69%増加した。
論文 参考訳(メタデータ) (2022-12-20T05:48:09Z) - ReACC: A Retrieval-Augmented Code Completion Framework [53.49707123661763]
本稿では,語彙のコピーと類似したセマンティクスを持つコード参照の両方を検索により活用する検索拡張コード補完フレームワークを提案する。
我々は,Python および Java プログラミング言語のコード補完タスクにおけるアプローチを評価し,CodeXGLUE ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-15T08:25:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。