論文の概要: Automated and Context-Aware Code Documentation Leveraging Advanced LLMs
- arxiv url: http://arxiv.org/abs/2509.14273v1
- Date: Tue, 16 Sep 2025 06:27:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:52.904249
- Title: Automated and Context-Aware Code Documentation Leveraging Advanced LLMs
- Title(参考訳): 高度LLMを活用した自動・コンテキスト対応コードドキュメンテーション
- Authors: Swapnil Sharma Sarker, Tanzina Taher Ifty,
- Abstract要約: 既存の自動化アプローチは主にコードの要約に重点を置いており、テンプレートベースのドキュメント生成のギャップを残している。
我々は,現代Javaからの重要な構造情報と意味情報を含む,Javadoc生成のための新しいコンテキスト対応データセットを開発する。
LLaMA-3.1, Gemma Phi-3, Mistral, Qwen-2.5を含む5つのオープンソースLCMをゼロショット, 少数ショット, 微調整設定を用いて評価し, その性能の比較分析を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Code documentation is essential to improve software maintainability and comprehension. The tedious nature of manual code documentation has led to much research on automated documentation generation. Existing automated approaches primarily focused on code summarization, leaving a gap in template-based documentation generation (e.g., Javadoc), particularly with publicly available Large Language Models (LLMs). Furthermore, progress in this area has been hindered by the lack of a Javadoc-specific dataset that incorporates modern language features, provides broad framework/library coverage, and includes necessary contextual information. This study aims to address these gaps by developing a tailored dataset and assessing the capabilities of publicly available LLMs for context-aware, template-based Javadoc generation. In this work, we present a novel, context-aware dataset for Javadoc generation that includes critical structural and semantic information from modern Java codebases. We evaluate five open-source LLMs (including LLaMA-3.1, Gemma-2, Phi-3, Mistral, Qwen-2.5) using zero-shot, few-shot, and fine-tuned setups and provide a comparative analysis of their performance. Our results demonstrate that LLaMA 3.1 performs consistently well and is a reliable candidate for practical, automated Javadoc generation, offering a viable alternative to proprietary systems.
- Abstract(参考訳): コードのドキュメンテーションは、ソフトウェアの保守性と理解を改善するために不可欠です。
手動のコードドキュメンテーションの面倒な性質は、自動ドキュメンテーション生成に関する多くの研究につながった。
既存の自動化アプローチは、主にコードの要約に重点を置いており、テンプレートベースのドキュメント生成(例えば、Javadoc)のギャップを残している。
さらに、この領域の進歩は、最新の言語機能を組み込んだJavadoc固有のデータセットの欠如によって妨げられ、フレームワークやライブラリの広範なカバレッジを提供し、必要なコンテキスト情報を含んでいる。
本研究の目的は, テンプレートベースのJavadoc生成において, カスタマイズされたデータセットを開発し, 公開されているLLMの機能を評価することにより, これらのギャップに対処することである。
本稿では,Javadoc生成のための新しいコンテキスト対応データセットについて紹介する。
LLaMA-3.1, Gemma-2, Phi-3, Mistral, Qwen-2.5を含む5つのオープンソースLCMをゼロショット, 少数ショット, 微調整設定を用いて評価し, その性能の比較分析を行った。
以上の結果から,LLaMA 3.1は一貫して良好に動作し,実用的で自動化されたJavadoc生成の信頼性の高い候補であり,プロプライエタリなシステムに代わる実行可能な代替手段であることが示された。
関連論文リスト
- Let's Use ChatGPT To Write Our Paper! Benchmarking LLMs To Write the Introduction of a Research Paper [64.50822834679101]
SciIGは、タイトル、抽象、および関連する作品からコヒーレントな紹介を生成するLLMの能力を評価するタスクである。
オープンソース (DeepSeek-v3, Gemma-3-12B, LLaMA 4-Maverick, MistralAI Small 3.1) およびクローズドソース GPT-4o システムを含む5つの最先端モデルを評価する。
結果は、特に意味的類似性と忠実性において、ほとんどのメトリクスにおいて、LLaMA-4 Maverickの優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-08-19T21:11:11Z) - On LLM-Assisted Generation of Smart Contracts from Business Processes [0.08192907805418582]
大規模言語モデル(LLM)は、ソフトウェアの生成方法の現実を変えました。
本稿では、ビジネスプロセス記述からスマートコントラクトコードを生成するためのLCMの使用について探索的研究を行う。
以上の結果から,LLMの性能はスマートコントラクト開発に必要な信頼性に劣ることがわかった。
論文 参考訳(メタデータ) (2025-07-30T20:39:45Z) - Formal Methods Meets Readability: Auto-Documenting JML Java Code [1.0650780147044159]
本稿では,Java モデリング言語 (JML) を用いた形式仕様が,LLM (Large Language Model) の生成する Javadocs の品質を高めることができるかどうかを検討する。
JMLアノテーションと非アノテーションJavaクラスから生成されたドキュメントを体系的に比較する。
以上の結果から,JMLはクラスレベルのドキュメンテーションを著しく改善し,メソッドレベルではより適度に向上することが示唆された。
論文 参考訳(メタデータ) (2025-06-10T20:39:29Z) - Analysis on LLMs Performance for Code Summarization [0.0]
大規模言語モデル(LLM)は、コード要約の分野を著しく進歩させてきた。
本研究の目的は,LLaMA-3,Phi-3,Mistral,GemmaなどのオープンソースLLMの比較分析を行うことである。
論文 参考訳(メタデータ) (2024-12-22T17:09:34Z) - Doc2OracLL: Investigating the Impact of Documentation on LLM-based Test Oracle Generation [0.716879432974126]
Javaでは、Javadocコメントは、ソースコードに直接埋め込まれた構造化された自然言語ドキュメントを提供する。
テストオラクル生成(TOG)に対するJavadocコメントの影響について詳しく調べる。
論文 参考訳(メタデータ) (2024-12-12T15:27:47Z) - DOCBENCH: A Benchmark for Evaluating LLM-based Document Reading Systems [99.17123445211115]
本稿では,大規模言語モデル(LLM)に基づく文書読解システムを評価するベンチマークであるDocBenchを紹介する。
我々のベンチマークには、人間のアノテーションの募集と、合成質問の生成が含まれる。
実際の文書は229件、質問は1,102件で、5つのドメインにまたがって4種類の質問がある。
論文 参考訳(メタデータ) (2024-07-15T13:17:42Z) - CodeRAG-Bench: Can Retrieval Augment Code Generation? [78.37076502395699]
検索拡張生成を用いたコード生成の系統的,大規模な解析を行う。
まず、コード生成タスクの3つのカテゴリを含む総合的な評価ベンチマークであるCodeRAG-Benchをキュレートする。
CodeRAG-Bench上のトップパフォーマンスモデルについて、1つまたは複数のソースから検索したコンテキストを提供することにより検討する。
論文 参考訳(メタデータ) (2024-06-20T16:59:52Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。