論文の概要: Beyond the Surface: A Solution-Aware Retrieval Model for Competition-level Code Generation
- arxiv url: http://arxiv.org/abs/2509.01129v1
- Date: Mon, 01 Sep 2025 04:47:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.547609
- Title: Beyond the Surface: A Solution-Aware Retrieval Model for Competition-level Code Generation
- Title(参考訳): サーフェスを超えて:競争レベルのコード生成のためのソリューション対応検索モデル
- Authors: Shiwen Zhang, Lingxiang Wang, Hainan Zhang, Ziwei Wang, Sijia Wen, Zhiming Zheng,
- Abstract要約: 競合プログラミングタスクのための合成データによって強化された解認識ランキングモデルであるSolveRankを提案する。
具体的には、DeepSeek-R1モデルを用いて、解の整合性についてGPT-4oで検証した、等価だが異なる言い換えられた新しい問題を生成する。
推論中、SolveRankは、ダウンストリームコードジェネレータを支援するために、コーパスから関連する問題と対応するコードを取得する。
- 参考スコア(独自算出の注目度): 12.805684772054684
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In competitive programming task, problem statements are often embedded within elaborate narrative backgrounds, requiring deep understanding of the underlying solutions to successfully complete the tasks. Current code generation models primarily focus on token-level semantic modeling, highly susceptible to distractions from irrelevant narrative statements. Inspired by RAG, retrieving reference code with similar solutions may help enhance model performance on difficult problems. However, existing retrieval models also emphasize surface-level semantic similarity, neglecting the deeper solution-level logical similarities that are critical in competitive programming. Therefore, designing ranking models capable of accurately identifying and retrieving problems and corresponding codes remains an urgent research problem in competitive code generation. In this paper, we propose SolveRank, a solution-aware ranking model empowered by synthetic data for competitive programming tasks. Specifically, we leverage the DeepSeek-R1 model to generate logically equivalent but differently phrased new problems, verified by GPT-4o for solution consistency. Then, we train SolveRank with these as positive samples and BM25/random-retrieved problems as negatives. During inference, SolveRank retrieves relevant problems and corresponding code from the corpus to assist a downstream code generator. Experiments on the xCodeEval dataset demonstrate that SolveRank outperforms SOTA ranking methods in precision and recall metrics, and boosts code generation performance for difficult problems.
- Abstract(参考訳): 競合プログラミングタスクでは、問題ステートメントは複雑な物語の背景に埋め込まれることが多く、タスクを成功させるために基礎となるソリューションを深く理解する必要がある。
現在のコード生成モデルは、主にトークンレベルのセマンティックモデリングに焦点を当てている。
RAGにインスパイアされた、同様のソリューションで参照コードを取得することは、難しい問題におけるモデルパフォーマンスを向上させるのに役立つかもしれない。
しかし、既存の検索モデルは、競合プログラミングにおいて重要な深い解レベルの論理的類似性を無視し、表面レベルのセマンティックな類似性も強調している。
したがって、問題の特定と検索を正確に行うことができるランク付けモデルを設計することは、競争コード生成において急激な研究課題である。
本稿では、競合プログラミングタスクのための合成データによって強化された解認識ランキングモデルであるSolveRankを提案する。
具体的には,DeepSeek-R1モデルを用いて論理的に等価だが,解の整合性について GPT-4o で検証した新しい問題を生成する。
次に、SolveRankを正のサンプルとして、BM25/ランダム検索問題を負としてトレーニングする。
推論中、SolveRankは、ダウンストリームコードジェネレータを支援するために、コーパスから関連する問題と対応するコードを取得する。
xCodeEvalデータセットの実験では、SolveRankはSOTAランキングメソッドよりも精度とリコールの指標が優れており、難しい問題に対してコード生成のパフォーマンスが向上している。
関連論文リスト
- CPRet: A Dataset, Benchmark, and Model for Retrieval in Competitive Programming [56.17331530444765]
CPRetは、競合プログラミングのための検索指向ベンチマークスイートである。
2つのコード中心タスク(Text-to-CodeとCode-to-Code)と、新たに提案された2つの問題中心タスク(Issue-to-DuplicateとSimplified-to-Full)である。
私たちのコントリビューションには、高品質なトレーニングデータと、信頼性評価のための時間的に分離されたテストセットの両方が含まれています。
論文 参考訳(メタデータ) (2025-05-19T10:07:51Z) - SweRank: Software Issue Localization with Code Ranking [109.3289316191729]
SweRankは、ソフトウェア問題ローカライゼーションのための効率的な検索と参照のためのフレームワークである。
パブリックなGitHubリポジトリからキュレートされた大規模なデータセットであるSweLocを構築します。
SweRankは最先端の性能を達成し、従来のランキングモデルとコストの高いエージェントベースシステムの両方より優れていることを示す。
論文 参考訳(メタデータ) (2025-05-07T19:44:09Z) - Learning to Solve and Verify: A Self-Play Framework for Code and Test Generation [69.62857948698436]
大規模言語モデル(LLM)の最近の進歩は、コーディングベンチマークのパフォーマンスを改善している。
しかし、手軽に利用できる高品質なデータの枯渇により、改善は停滞している。
本稿では,単一モデルのコードとテスト生成能力を共同で改善するセルフプレイ・ソルバ検証フレームワークであるSol-Verを提案する。
論文 参考訳(メタデータ) (2025-02-20T18:32:19Z) - CoRNStack: High-Quality Contrastive Data for Better Code Retrieval and Reranking [45.18877655831977]
CoRNStackは、複数のプログラミング言語にまたがるコードのための、大規模で高品質なコントラストトレーニングデータセットです。
このデータセットは、ノイズ正の除去のために一貫性フィルタリングを用いてキュレートされ、さらに硬い負のマイニングによって濃縮される。
我々は、CoRNStackを用いた埋め込みモデルの対照的なトレーニングが、様々なコード検索タスクにおける最先端のパフォーマンスをもたらすことを実証した。
論文 参考訳(メタデータ) (2024-12-01T23:54:12Z) - List-aware Reranking-Truncation Joint Model for Search and
Retrieval-augmented Generation [80.12531449946655]
本稿では,2つのタスクを同時に実行可能なRe rank-Truncation joint model(GenRT)を提案する。
GenRTは、エンコーダ-デコーダアーキテクチャに基づく生成パラダイムによるリランクとトランケーションを統合している。
提案手法は,Web検索および検索拡張LLMにおけるリランクタスクとトラルケーションタスクの両方においてSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-02-05T06:52:53Z) - On the Difficulty of Generalizing Reinforcement Learning Framework for
Combinatorial Optimization [6.935838847004389]
現実の応用とグラフ上の組合せ最適化問題(COP)は、コンピュータサイエンスにおける標準的な課題である。
このアプローチの基本原理は、ノードのローカル情報とグラフ構造化データの両方を符号化するグラフニューラルネットワーク(GNN)をデプロイすることである。
我々は,クラウド上のセキュリティ対応電話機のクローン割り当てを古典的二次代入問題 (QAP) として,深層RLモデルが他の難題の解法に一般的に適用可能であるか否かを調査する。
論文 参考訳(メタデータ) (2021-08-08T19:12:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。