論文の概要: Model-Driven Quantum Code Generation Using Large Language Models and Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2508.21097v1
- Date: Thu, 28 Aug 2025 01:33:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.823011
- Title: Model-Driven Quantum Code Generation Using Large Language Models and Retrieval-Augmented Generation
- Title(参考訳): 大規模言語モデルと検索拡張生成を用いたモデル駆動量子コード生成
- Authors: Nazanin Siavash, Armin Moin,
- Abstract要約: 本稿では,Large Language Models (LLMs) を利用したモデル-テキスト/コード変換の新たな研究方向を提案する。
そこでは、モデル駆動のアプローチがコストを削減し、不均一なプラットフォーム環境と開発者のスキルの欠如に関連するリスクを軽減するのに役立つ。
- 参考スコア(独自算出の注目度): 1.628589561701473
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper introduces a novel research direction for model-to-text/code transformations by leveraging Large Language Models (LLMs) that can be enhanced with Retrieval-Augmented Generation (RAG) pipelines. The focus is on quantum and hybrid quantum-classical software systems, where model-driven approaches can help reduce the costs and mitigate the risks associated with the heterogeneous platform landscape and lack of developers' skills. We validate one of the proposed ideas regarding generating code out of UML model instances of software systems. This Python code uses a well-established library, called Qiskit, to execute on gate-based or circuit-based quantum computers. The RAG pipeline that we deploy incorporates sample Qiskit code from public GitHub repositories. Experimental results show that well-engineered prompts can improve CodeBLEU scores by up to a factor of four, yielding more accurate and consistent quantum code. However, the proposed research direction can go beyond this through further investigation in the future by conducting experiments to address our other research questions and ideas proposed here, such as deploying software system model instances as the source of information in the RAG pipelines, or deploying LLMs for code-to-code transformations, for instance, for transpilation use cases.
- Abstract(参考訳): 本稿では,Large Language Models (LLMs) を利用して,Retrieval-Augmented Generation (RAG) パイプラインで拡張可能なモデル-テキスト/コード変換の新たな研究方向を提案する。
そこでは、モデル駆動のアプローチがコストを削減し、不均一なプラットフォーム環境と開発者のスキルの欠如に関連するリスクを軽減するのに役立つ。
ソフトウェアシステムのUMLモデルインスタンスからコードを生成するための提案されたアイデアの1つを検証する。
このPythonコードは、Qiskitと呼ばれる確立されたライブラリを使用して、ゲートベースまたは回路ベースの量子コンピュータ上で実行される。
私たちがデプロイしたRAGパイプラインには、公開GitHubリポジトリのサンプルQiskitコードが組み込まれています。
実験結果から,CodeBLEUのスコアは最大4倍向上し,より正確で一貫した量子コードが得られることがわかった。
しかし、提案された研究の方向性は、RAGパイプラインの情報ソースとしてソフトウェアシステムモデルインスタンスをデプロイしたり、例えば、トランスパイルユースケースのためにコード間変換のためのLSMをデプロイしたりといった、ここで提案した他の研究課題やアイデアに対処する実験を行うことによって、将来的にさらなる調査を通じて、この先さらに進むことができる。
関連論文リスト
- SnipGen: A Mining Repository Framework for Evaluating LLMs for Code [51.07471575337676]
言語モデル(LLM)は、コードリポジトリを含む広範なデータセットに基づいてトレーニングされる。
それらの有効性を評価することは、トレーニングに使用されるデータセットと評価に使用されるデータセットとが重複する可能性があるため、大きな課題となる。
SnipGenは、コード生成のために、様々な下流タスクをまたいだ迅速なエンジニアリングを活用するように設計された包括的なリポジトリマイニングフレームワークである。
論文 参考訳(メタデータ) (2025-02-10T21:28:15Z) - o1-Coder: an o1 Replication for Coding [16.01327180847857]
O1-CoDERは、コーディングタスクに焦点を当てたOpenAIのo1モデルを複製する試みである。
強化学習(RL)とモンテカルロ木探索(MCTS)を統合し、モデルのSystem-2思考能力を強化する。
論文 参考訳(メタデータ) (2024-11-29T07:19:56Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - VAE-QWGAN: Addressing Mode Collapse in Quantum GANs via Autoencoding Priors [3.823356975862005]
VAE-QWGANは、古典的変分オートエンコーダ(VAE)とハイブリッド量子ワッサーシュタインGAN(QWGAN)の強度を組み合わせる
VAE-QWGANは既存のQGANアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2024-09-16T14:52:22Z) - CodeRAG-Bench: Can Retrieval Augment Code Generation? [78.37076502395699]
検索拡張生成を用いたコード生成の系統的,大規模な解析を行う。
まず、コード生成タスクの3つのカテゴリを含む総合的な評価ベンチマークであるCodeRAG-Benchをキュレートする。
CodeRAG-Bench上のトップパフォーマンスモデルについて、1つまたは複数のソースから検索したコンテキストを提供することにより検討する。
論文 参考訳(メタデータ) (2024-06-20T16:59:52Z) - CodePori: Large-Scale System for Autonomous Software Development Using Multi-Agent Technology [4.2990995991059275]
大規模言語モデル(LLM)とGPT(Generative Pre-trained Transformer)は、ソフトウェア工学の分野を変えました。
我々は,大規模かつ複雑なソフトウェアプロジェクトのコード生成を自動化するように設計された,新しいシステムであるCodePoriを紹介する。
結果: CodePoriは、典型的なソフトウェア開発プロセスに合わせて、大規模プロジェクトの実行コードを生成することができる。
論文 参考訳(メタデータ) (2024-02-02T13:42:50Z) - StepCoder: Improve Code Generation with Reinforcement Learning from
Compiler Feedback [58.20547418182074]
2つの主要コンポーネントからなるコード生成の新しいフレームワークであるStepCoderを紹介します。
CCCSは、長いシーケンスのコード生成タスクをCurriculum of Code Completion Subtaskに分割することで、探索課題に対処する。
FGOは、未実行のコードセグメントをマスクすることでのみモデルを最適化し、Fine-Grained Optimizationを提供する。
提案手法は,出力空間を探索し,対応するベンチマークにおいて最先端の手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-02-02T13:14:31Z) - Execution-based Code Generation using Deep Reinforcement Learning [8.085533911328577]
PPOCoderは、事前訓練されたPLモデルとプロキシポリシー最適化を組み合わせた、コード生成のための新しいフレームワークである。
PPOCoderは、外部コード固有の知識をモデル最適化プロセスにシームレスに統合する。
PPOCoderはタスクに依存しない、モデルに依存しないフレームワークで、さまざまなコード生成タスクやPLで使用できます。
論文 参考訳(メタデータ) (2023-01-31T18:02:26Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z) - Relevance Transformer: Generating Concise Code Snippets with Relevance
Feedback [6.230751621285322]
我々は、明示的なコード生成のためのモダントランスフォーマーアーキテクチャを導入し、研究する。
我々は、擬似関連フィードバックを用いて外部知識を組み込んだRelevance Transformerと呼ばれる新しいモデルを提案する。
その結果,BLEU評価に基づく最先端手法の改善が示された。
論文 参考訳(メタデータ) (2020-07-06T09:54:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。