論文の概要: RAILS: Retrieval-Augmented Intelligence for Learning Software Development
- arxiv url: http://arxiv.org/abs/2506.22742v1
- Date: Sat, 28 Jun 2025 03:30:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.542795
- Title: RAILS: Retrieval-Augmented Intelligence for Learning Software Development
- Title(参考訳): RAILS:Retrieval-Augmented Intelligence for Learning Software Development
- Authors: Wali Mohammad Abdullah, Md. Morshedul Islam, Devraj Parmar, Happy Hasmukhbhai Patel, Sindhuja Prabhakaran, Baidya Saha,
- Abstract要約: GPT-3.5-Turboのような大規模言語モデル(LLM)は、外部またはプロジェクト固有のドキュメントにアクセスできない場合、不完全なコードや不正なインポートを生成する。
我々は、LLMプロンプトを拡張するフレームワークであるRAILSを紹介し、キュレートされたリソースから意味的に検索されたコンテキストを付加する。
RAILSを、標準ライブラリ、GUI API、外部ツール、カスタムユーティリティにまたがる78の現実世界のJavaインポートエラーケースで評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) like GPT-3.5-Turbo are increasingly used to assist software development, yet they often produce incomplete code or incorrect imports, especially when lacking access to external or project-specific documentation. We introduce RAILS (Retrieval-Augmented Intelligence for Learning Software Development), a framework that augments LLM prompts with semantically retrieved context from curated Java resources using FAISS and OpenAI embeddings. RAILS incorporates an iterative validation loop guided by compiler feedback to refine suggestions. We evaluated RAILS on 78 real-world Java import error cases spanning standard libraries, GUI APIs, external tools, and custom utilities. Despite using the same LLM, RAILS outperforms baseline prompting by preserving intent, avoiding hallucinations, and surfacing correct imports even when libraries are unavailable locally. Future work will integrate symbolic filtering via PostgreSQL and extend support to other languages and IDEs.
- Abstract(参考訳): GPT-3.5-Turboのような大規模言語モデル(LLM)は、ソフトウェア開発を支援するために使われることが多いが、特に外部やプロジェクト固有のドキュメントにアクセスできない場合、不完全なコードや不正なインポートを生成することが多い。
RAILS(Retrieval-Augmented Intelligence for Learning Software Development)は、FAISSとOpenAIを組み込んだJavaリソースから、LLMプロンプトを意味的に抽出したコンテキストで拡張するフレームワークである。
RAILSには、コンパイラフィードバックによって導かれる反復検証ループが組み込まれ、提案を洗練させる。
RAILSを、標準ライブラリ、GUI API、外部ツール、カスタムユーティリティにまたがる78の現実世界のJavaインポートエラーケースで評価した。
同じLLMを使用しているにもかかわらず、RAILSは、意図の保存、幻覚の回避、そしてライブラリがローカルで利用できない場合でも、正しいインポートによってベースラインを上回ります。
今後の作業では、PostgreSQLによるシンボリックフィルタリングを統合し、他の言語やIDEへのサポートを拡張する予定である。
関連論文リスト
- LLMs Love Python: A Study of LLMs' Bias for Programming Languages and Libraries [15.140178992235123]
大規模言語モデル(LLM)は、コード生成においてますます大きな役割を果たす。
この研究は、コードを生成する際に使われるプログラミング言語やライブラリに対するLLMの嗜好について、初めて詳細に調査する。
その結果,LLMは言語に依存しない問題を解く上で,Pythonを強く好んでいることが明らかとなった。
論文 参考訳(メタデータ) (2025-03-21T14:29:35Z) - Codellm-Devkit: A Framework for Contextualizing Code LLMs with Program Analysis Insights [9.414198519543564]
codellm-devkit (以下, CLDK') は,プログラム解析のプロセスを大幅に単純化したオープンソースライブラリである。
CLDKは開発者に対して直感的でユーザフレンドリなインターフェースを提供しています。
論文 参考訳(メタデータ) (2024-10-16T20:05:59Z) - CodeRAG-Bench: Can Retrieval Augment Code Generation? [78.37076502395699]
検索拡張生成を用いたコード生成の系統的,大規模な解析を行う。
まず、コード生成タスクの3つのカテゴリを含む総合的な評価ベンチマークであるCodeRAG-Benchをキュレートする。
CodeRAG-Bench上のトップパフォーマンスモデルについて、1つまたは複数のソースから検索したコンテキストを提供することにより検討する。
論文 参考訳(メタデータ) (2024-06-20T16:59:52Z) - Class-Level Code Generation from Natural Language Using Iterative, Tool-Enhanced Reasoning over Repository [4.767858874370881]
実世界のリポジトリ内でクラスレベルのコードを生成する際に,LLMを厳格に評価するためのベンチマークであるRepoClassBenchを紹介する。
RepoClassBenchには、リポジトリの選択からJava、Python、C#にまたがる"Natural Language to Class Generation"タスクが含まれている。
Retrieve-Repotools-Reflect (RRR)は,レポジトリレベルのコンテキストを反復的にナビゲートし,推論する静的解析ツールを備えた新しいアプローチである。
論文 参考訳(メタデータ) (2024-04-22T03:52:54Z) - Enhancing LLM-Based Coding Tools through Native Integration of
IDE-Derived Static Context [41.91246546266515]
我々は,統合開発環境(IDE)がリポジトリレベルのコード補完のために,直接的かつ正確かつリアルタイムなクロスファイル情報を提供できると主張している。
本稿では,IDEネイティブな静的コンテキストをクロスコンテキスト構築に利用し,自己再定義のための診断結果を生成するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-06T01:59:41Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z) - LILO: Learning Interpretable Libraries by Compressing and Documenting Code [71.55208585024198]
LILOは、反復的に合成、圧縮、文書化を行う、ニューロシンボリックなフレームワークである。
LILOは、LLM誘導プログラム合成と、Stitchから自動化された最近のアルゴリズムの進歩を組み合わせたものである。
LILOのシンセサイザーが学習した抽象化を解釈し、デプロイするのを手助けすることで、AutoDocがパフォーマンスを向上させることが分かりました。
論文 参考訳(メタデータ) (2023-10-30T17:55:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。