論文の概要: BanglaForge: LLM Collaboration with Self-Refinement for Bangla Code Generation
- arxiv url: http://arxiv.org/abs/2512.19122v1
- Date: Mon, 22 Dec 2025 07:53:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.662563
- Title: BanglaForge: LLM Collaboration with Self-Refinement for Bangla Code Generation
- Title(参考訳): BanglaForge: コード生成のための自己リファインメントによるLLMコラボレーション
- Authors: Mahir Labib Dihan, Sadif Ahmed, Md Nafiu Rahman,
- Abstract要約: ここでは,Bangla関数記述からコードを生成する新しいフレームワークであるBanglaForgeを紹介する。
BLP-2025 Bangla Code Generationベンチマークでは、BanglaForgeは84.00%という競合するPass@1精度を達成した。
- 参考スコア(独自算出の注目度): 0.2761313371455893
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bangla is a low-resource language for code generation, lacking large-scale annotated datasets and tools to transform natural language specifications into executable programs. This makes Bangla-to-code generation a challenging task requiring innovative solutions. To address this, we introduce BanglaForge, a novel framework for generating code from Bangla function descriptions. BanglaForge leverages a retrieval-augmented dual-model collaboration paradigm with self-refinement, combining in-context learning, llm-based translation, systematic prompt engineering, and iterative self-refinement based on execution feedback, where a coder generates initial solutions and a reviewer enhances them for robustness. On the BLP-2025 Bangla Code Generation benchmark, BanglaForge achieves a competitive Pass@1 accuracy of 84.00%, demonstrating the effectiveness of retrieval, model collaboration, and self-refinement for low-resource Bangla code generation.
- Abstract(参考訳): Banglaはコード生成のための低リソース言語であり、自然言語仕様を実行可能なプログラムに変換するための大規模な注釈付きデータセットとツールが欠けている。
これにより、Bangla-to-code生成は革新的なソリューションを必要とする困難なタスクとなる。
これを解決するために、Bangla関数記述からコードを生成する新しいフレームワークであるBanglaForgeを紹介します。
BanglaForgeは、検索強化されたデュアルモデルコラボレーションパラダイムを自己修正に活用し、コンテキスト内学習、llmベースの翻訳、システマティック・プロンプトエンジニアリング、実行フィードバックに基づく反復的自己リファインメントを組み合わせ、コーダが初期ソリューションを生成し、レビュアーが堅牢性を高める。
BLP-2025 Bangla Code Generationベンチマークでは、BanglaForgeは84.00%のPass@1精度を達成し、低リソースのBanglaコード生成における検索、モデルコラボレーション、自己修正の有効性を実証している。
関連論文リスト
- Retriv at BLP-2025 Task 2: Test-Driven Feedback-Guided Framework for Bangla-to-Python Code Generation [7.459430148112738]
提案手法は,インストラクションプロンプトと,テスト駆動のフィードバック誘導型反復精製プロセスを組み合わせた手法である。
モデルはBangla命令からコードを生成し、ユニットテストに対してテストし、3つの評価パスを通じて失敗するアウトプットを反復的に洗練する。
このアプローチはチームの"Retriv"がPass@1スコア0.934で共有タスクの2位を確保するのに役立ちました。
論文 参考訳(メタデータ) (2025-11-10T18:41:44Z) - TigerCoder: A Novel Suite of LLMs for Code Generation in Bangla [37.210208249613]
バングラ語は5番目に話される言語であるにもかかわらず、Large Language Models (LLMs) では表現されていない。
これは主に、高品質なデータの不足から、事前訓練や微調整といったモデルに起因している。
1)プログラムドメイン適応のための包括的なBanglaコード命令データセット,(2)Banglaコード生成の評価ベンチマークMBPP-Bangla,(3)Code LLMのTigerCoderファミリー,(3)Pass@1では,既存の多言語および汎用のBangla LLMに対して,11~18%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2025-09-11T02:25:49Z) - Dream-Coder 7B: An Open Diffusion Language Model for Code [99.14959222355988]
そこで,Dream-Coder 7Bを提案する。Dream-Coder 7Bは,任意の順序生成能力を示すコード生成のための,オープンソースの離散拡散言語モデルである。
厳密に左から右にデコードする従来の自己回帰(AR)モデルとは異なり、ドリームコーダ7Bはコーディングタスクに基づいてデコード戦略を適応的に決定する。
論文 参考訳(メタデータ) (2025-09-01T05:30:56Z) - StepCoder: Improve Code Generation with Reinforcement Learning from
Compiler Feedback [58.20547418182074]
2つの主要コンポーネントからなるコード生成の新しいフレームワークであるStepCoderを紹介します。
CCCSは、長いシーケンスのコード生成タスクをCurriculum of Code Completion Subtaskに分割することで、探索課題に対処する。
FGOは、未実行のコードセグメントをマスクすることでのみモデルを最適化し、Fine-Grained Optimizationを提供する。
提案手法は,出力空間を探索し,対応するベンチマークにおいて最先端の手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-02-02T13:14:31Z) - Self-Infilling Code Generation [60.12883980846781]
自動回帰デコードにインフィル操作を組み込んだ汎用フレームワークであるセルフインフィルコード生成を導入する。
我々は,従来の復号化において,新しい割り込みとループ機構を導入するために,この機能を利用する。
提案する復号処理は,複数のコード生成ベンチマークにおける正規性と品質の向上に有効である。
論文 参考訳(メタデータ) (2023-11-29T16:02:06Z) - BanglaParaphrase: A High-Quality Bangla Paraphrase Dataset [3.922582192616519]
そこで我々は,新しいフィルタパイプラインによって構築された高品質なBangla ParaphraseデータセットであるBanglaParaphraseを提案する。
我々は,BanglaParaphraseの導入を通じて,NLPドメインにおけるBangla言語の低リソース状態を軽減するための一歩を踏み出したい。
論文 参考訳(メタデータ) (2022-10-11T02:52:31Z) - BanglaNLG: Benchmarks and Resources for Evaluating Low-Resource Natural
Language Generation in Bangla [21.47743471497797]
本研究はバングラの自然言語生成モデルを評価するためのベンチマークを示す。
BanglaNLGベンチマークでは,3つの条件付きテキスト生成タスクを集約する。
クリーンコーパス27.5GBのBanglaデータを用いて、Banglaのシーケンス・ツー・シーケンス・トランスフォーマーモデルであるBanglaT5を事前訓練する。
BanglaT5はすべてのタスクで最先端のパフォーマンスを実現し、mT5(ベース)を最大5.4%上回っている。
論文 参考訳(メタデータ) (2022-05-23T06:54:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。