論文の概要: Adding New Capability in Existing Scientific Application with LLM Assistance
- arxiv url: http://arxiv.org/abs/2511.00087v1
- Date: Thu, 30 Oct 2025 01:09:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.574732
- Title: Adding New Capability in Existing Scientific Application with LLM Assistance
- Title(参考訳): LLM支援による既存の科学応用における新しい能力の追加
- Authors: Anshu Dubey, Akash Dhruv,
- Abstract要約: 大規模言語モデルを用いた新しいアルゴリズムに対して,スクラッチからコードを記述するための新しい手法を提案する。
本稿では,これまで開発されたコード翻訳ツールであるCode-Scribeの,新しいコード生成のための拡張について述べる。
- 参考スコア(独自算出の注目度): 0.4507149065512141
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the emergence and rapid evolution of large language models (LLM), automating coding tasks has become an important research topic. Many efforts are underway and literature abounds about the efficacy of models and their ability to generate code. A less explored aspect of code generation is for new algorithms, where the training dataset would not have included any previous example of similar code. In this paper we propose a new methodology for writing code from scratch for a new algorithm using LLM assistance, and describe enhancement of a previously developed code-translation tool, Code-Scribe, for new code generation.
- Abstract(参考訳): 大規模言語モデル(LLM)の出現と急速な進化により、コーディングタスクの自動化が重要な研究トピックとなっている。
モデルの有効性とコード生成能力について、多くの取り組みが進行中である。
コード生成のより詳細な側面は、トレーニングデータセットが類似コードの以前の例を含まないような、新しいアルゴリズムに関するものだ。
本稿では,LLMアシストを用いた新しいアルゴリズムのスクラッチからコードを記述するための新しい手法を提案し,新しいコード生成のためのコード翻訳ツールであるCode-Scribeの強化について述べる。
関連論文リスト
- ObscuraCoder: Powering Efficient Code LM Pre-Training Via Obfuscation Grounding [60.37988508851391]
言語モデル(LM)は、コード記述ツールボックスのベースとなっている。
Code-LMの事前学習目標の変更を探求する研究は、データ効率の向上と構文とセマンティクスの相互接続性の向上を目的としており、顕著に不十分である。
本研究では,Code-LMが表面的な構文を超越し,事前学習したサンプルの効率を高めるために,難読化コードの基盤について検討する。
論文 参考訳(メタデータ) (2025-03-27T23:08:53Z) - A Comprehensive Survey of AI-Driven Advancements and Techniques in Automated Program Repair and Code Generation [0.0]
最近27の論文がレビューされ、2つのグループに分けられた。
最初のグループは、意味的エラーの特定を含む、バグの検出と修復のための新しいメソッドで構成されている。
2つ目のグループはコード生成に精通しており、プログラミングとタスク固有のモデルのために微調整された汎用LLMの概要を提供している。
また、識別子認識トレーニング、命令レベルでの微調整、セマンティックコード構造の導入など、コード生成を改善する方法も提示されている。
論文 参考訳(メタデータ) (2024-11-12T06:47:54Z) - CodeRefine: A Pipeline for Enhancing LLM-Generated Code Implementations of Research Papers [0.0]
CodeRefineは、研究論文の方法論を大規模言語モデルを用いて機能コードに変換するためのフレームワークである。
我々の多段階アプローチはまず、論文からキーテキストチャンクを抽出して要約し、それらのコード関連性を分析し、知識グラフを作成する。
その後、この構造化表現からコードが生成され、提案されたリフレクション検索拡張生成アプローチによって拡張される。
論文 参考訳(メタデータ) (2024-08-23T20:51:04Z) - Automated Prompt Engineering for Cost-Effective Code Generation Using Evolutionary Algorithm [8.009881267479189]
大規模言語モデルでは、様々なソフトウェア開発タスク、特にコード生成での利用が増加している。
進化的プロンプト・エンジニアリング・フォー・コード(EPiC)という代替手法を提案する。
EPiCは軽量な進化的アルゴリズムを使用して、オリジナルのプロンプトを改良したバージョンに洗練し、高品質なコードを生成する。
最先端(SOTA)のコード生成エージェントに対する評価では、EPiCはパス@kの最大6%の改善を達成できるだけでなく、ベースラインよりも2~10倍コスト効率が高いことが示されている。
論文 参考訳(メタデータ) (2024-08-20T21:15:36Z) - Case2Code: Scalable Synthetic Data for Code Generation [105.89741089673575]
大規模言語モデル(LLM)は、コード生成において顕著なブレークスルーを示している。
最近の研究は、いくつかの強力なLLMによって生成された合成データをトレーニングすることで、コードLLMを改善している。
プログラムの表現性と正確性を利用したtextbfCase2Code タスクを提案する。
論文 参考訳(メタデータ) (2024-07-17T11:35:00Z) - A Survey on Large Language Models for Code Generation [9.555952109820392]
大規模言語モデル(LLM)は、様々なコード関連のタスクで顕著な進歩を遂げています。
本調査は、総合的かつ最新の文献レビューを提供することで、学界と実践的発展のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-06-01T17:48:15Z) - CodeIP: A Grammar-Guided Multi-Bit Watermark for Large Language Models of Code [56.019447113206006]
大規模言語モデル(LLM)はコード生成において顕著な進歩を遂げた。
CodeIPは、新しいマルチビット透かし技術で、出所の詳細を保持するために追加情報を挿入する。
5つのプログラミング言語にまたがる実世界のデータセットで実施された実験は、CodeIPの有効性を実証している。
論文 参考訳(メタデータ) (2024-04-24T04:25:04Z) - Enhancing Semantic Code Search with Multimodal Contrastive Learning and
Soft Data Augmentation [50.14232079160476]
コード検索のためのマルチモーダルコントラスト学習とソフトデータ拡張を用いた新しい手法を提案する。
我々は,6つのプログラミング言語を用いた大規模データセットにおけるアプローチの有効性を評価するために,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-04-07T08:49:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。