論文の概要: Beyond the Surface: A Solution-Aware Retrieval Model for Competition-level Code Generation
- arxiv url: http://arxiv.org/abs/2509.01129v1
- Date: Mon, 01 Sep 2025 04:47:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.547609
- Title: Beyond the Surface: A Solution-Aware Retrieval Model for Competition-level Code Generation
- Title(参考訳): サーフェスを超えて:競争レベルのコード生成のためのソリューション対応検索モデル
- Authors: Shiwen Zhang, Lingxiang Wang, Hainan Zhang, Ziwei Wang, Sijia Wen, Zhiming Zheng,
- Abstract要約: 競合プログラミングタスクのための合成データによって強化された解認識ランキングモデルであるSolveRankを提案する。
具体的には、DeepSeek-R1モデルを用いて、解の整合性についてGPT-4oで検証した、等価だが異なる言い換えられた新しい問題を生成する。
推論中、SolveRankは、ダウンストリームコードジェネレータを支援するために、コーパスから関連する問題と対応するコードを取得する。
- 参考スコア(独自算出の注目度): 12.805684772054684
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In competitive programming task, problem statements are often embedded within elaborate narrative backgrounds, requiring deep understanding of the underlying solutions to successfully complete the tasks. Current code generation models primarily focus on token-level semantic modeling, highly susceptible to distractions from irrelevant narrative statements. Inspired by RAG, retrieving reference code with similar solutions may help enhance model performance on difficult problems. However, existing retrieval models also emphasize surface-level semantic similarity, neglecting the deeper solution-level logical similarities that are critical in competitive programming. Therefore, designing ranking models capable of accurately identifying and retrieving problems and corresponding codes remains an urgent research problem in competitive code generation. In this paper, we propose SolveRank, a solution-aware ranking model empowered by synthetic data for competitive programming tasks. Specifically, we leverage the DeepSeek-R1 model to generate logically equivalent but differently phrased new problems, verified by GPT-4o for solution consistency. Then, we train SolveRank with these as positive samples and BM25/random-retrieved problems as negatives. During inference, SolveRank retrieves relevant problems and corresponding code from the corpus to assist a downstream code generator. Experiments on the xCodeEval dataset demonstrate that SolveRank outperforms SOTA ranking methods in precision and recall metrics, and boosts code generation performance for difficult problems.
- Abstract(参考訳): 競合プログラミングタスクでは、問題ステートメントは複雑な物語の背景に埋め込まれることが多く、タスクを成功させるために基礎となるソリューションを深く理解する必要がある。
現在のコード生成モデルは、主にトークンレベルのセマンティックモデリングに焦点を当てている。
RAGにインスパイアされた、同様のソリューションで参照コードを取得することは、難しい問題におけるモデルパフォーマンスを向上させるのに役立つかもしれない。
しかし、既存の検索モデルは、競合プログラミングにおいて重要な深い解レベルの論理的類似性を無視し、表面レベルのセマンティックな類似性も強調している。
したがって、問題の特定と検索を正確に行うことができるランク付けモデルを設計することは、競争コード生成において急激な研究課題である。
本稿では、競合プログラミングタスクのための合成データによって強化された解認識ランキングモデルであるSolveRankを提案する。
具体的には,DeepSeek-R1モデルを用いて論理的に等価だが,解の整合性について GPT-4o で検証した新しい問題を生成する。
次に、SolveRankを正のサンプルとして、BM25/ランダム検索問題を負としてトレーニングする。
推論中、SolveRankは、ダウンストリームコードジェネレータを支援するために、コーパスから関連する問題と対応するコードを取得する。
xCodeEvalデータセットの実験では、SolveRankはSOTAランキングメソッドよりも精度とリコールの指標が優れており、難しい問題に対してコード生成のパフォーマンスが向上している。
関連論文リスト
- Increasing LLM Coding Capabilities through Diverse Synthetic Coding Tasks [41.75017840131367]
大規模言語モデル(LLM)は、コード生成において素晴らしい可能性を示しています。
800k近い命令推論コードテスト四重項を生成するスケーラブルな合成データ生成パイプラインを提案する。
論文 参考訳(メタデータ) (2025-10-27T10:54:25Z) - Code-driven Number Sequence Calculation: Enhancing the inductive Reasoning Abilities of Large Language Models [44.17697803306198]
textitCodeSeqは,数列から構築した合成後トレーニングデータセットである。
パイプラインは、失敗したテストケースを反映し、反復的な修正を取り入れることで、教師付き微妙なデータを生成する。
実験の結果,textitCodeSeqでトレーニングしたモデルでは,様々な推論タスクが改善され,OOD性能が保たれることがわかった。
論文 参考訳(メタデータ) (2025-10-16T12:29:40Z) - SciML Agents: Write the Solver, Not the Solution [69.5021018644143]
敵の"ミスリーディング"問題の診断データセットと,1,000種類のODEタスクの大規模ベンチマークという,2つの新しいデータセットを紹介した。
オープンおよびクローズドソース LLM モデルについて, (i) 誘導型とガイド型, (ii) オフ・ザ・シェルフ対微調整型という2つの軸に沿って評価した。
予備的な結果は、慎重なプロンプトと微調整により、単純なODE問題を確実に解決できる特殊なLLMエージェントが得られることを示唆している。
論文 参考訳(メタデータ) (2025-09-12T02:53:57Z) - CPRet: A Dataset, Benchmark, and Model for Retrieval in Competitive Programming [56.17331530444765]
CPRetは、競合プログラミングのための検索指向ベンチマークスイートである。
2つのコード中心タスク(Text-to-CodeとCode-to-Code)と、新たに提案された2つの問題中心タスク(Issue-to-DuplicateとSimplified-to-Full)である。
私たちのコントリビューションには、高品質なトレーニングデータと、信頼性評価のための時間的に分離されたテストセットの両方が含まれています。
論文 参考訳(メタデータ) (2025-05-19T10:07:51Z) - SweRank: Software Issue Localization with Code Ranking [109.3289316191729]
SweRankは、ソフトウェア問題ローカライゼーションのための効率的な検索と参照のためのフレームワークである。
パブリックなGitHubリポジトリからキュレートされた大規模なデータセットであるSweLocを構築します。
SweRankは最先端の性能を達成し、従来のランキングモデルとコストの高いエージェントベースシステムの両方より優れていることを示す。
論文 参考訳(メタデータ) (2025-05-07T19:44:09Z) - Learning to Solve and Verify: A Self-Play Framework for Code and Test Generation [69.62857948698436]
大規模言語モデル(LLM)の最近の進歩は、コーディングベンチマークのパフォーマンスを改善している。
しかし、手軽に利用できる高品質なデータの枯渇により、改善は停滞している。
本稿では,単一モデルのコードとテスト生成能力を共同で改善するセルフプレイ・ソルバ検証フレームワークであるSol-Verを提案する。
論文 参考訳(メタデータ) (2025-02-20T18:32:19Z) - CoRNStack: High-Quality Contrastive Data for Better Code Retrieval and Reranking [45.18877655831977]
CoRNStackは、複数のプログラミング言語にまたがるコードのための、大規模で高品質なコントラストトレーニングデータセットです。
このデータセットは、ノイズ正の除去のために一貫性フィルタリングを用いてキュレートされ、さらに硬い負のマイニングによって濃縮される。
我々は、CoRNStackを用いた埋め込みモデルの対照的なトレーニングが、様々なコード検索タスクにおける最先端のパフォーマンスをもたらすことを実証した。
論文 参考訳(メタデータ) (2024-12-01T23:54:12Z) - Learning to Better Search with Language Models via Guided Reinforced Self-Training [15.289058352618468]
本稿では,推論中の効果的な探索能力を向上させるためのガイド付き自己学習(Guided-ReST)を提案する。
Guided-ReSTは最適解をモデルの探索手順に組み込んで、高品質な探索トレースを生成する。
本手法は,算術的推論や自己修復作業における言語モデルの探索能力を大幅に向上させる。
論文 参考訳(メタデータ) (2024-10-03T21:07:59Z) - List-aware Reranking-Truncation Joint Model for Search and
Retrieval-augmented Generation [80.12531449946655]
本稿では,2つのタスクを同時に実行可能なRe rank-Truncation joint model(GenRT)を提案する。
GenRTは、エンコーダ-デコーダアーキテクチャに基づく生成パラダイムによるリランクとトランケーションを統合している。
提案手法は,Web検索および検索拡張LLMにおけるリランクタスクとトラルケーションタスクの両方においてSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-02-05T06:52:53Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z) - On the Difficulty of Generalizing Reinforcement Learning Framework for
Combinatorial Optimization [6.935838847004389]
現実の応用とグラフ上の組合せ最適化問題(COP)は、コンピュータサイエンスにおける標準的な課題である。
このアプローチの基本原理は、ノードのローカル情報とグラフ構造化データの両方を符号化するグラフニューラルネットワーク(GNN)をデプロイすることである。
我々は,クラウド上のセキュリティ対応電話機のクローン割り当てを古典的二次代入問題 (QAP) として,深層RLモデルが他の難題の解法に一般的に適用可能であるか否かを調査する。
論文 参考訳(メタデータ) (2021-08-08T19:12:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。