論文の概要: FastCode: Fast and Cost-Efficient Code Understanding and Reasoning
- arxiv url: http://arxiv.org/abs/2603.01012v1
- Date: Sun, 01 Mar 2026 09:41:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.462307
- Title: FastCode: Fast and Cost-Efficient Code Understanding and Reasoning
- Title(参考訳): FastCode: 高速で費用効率のよいコード理解と推論
- Authors: Zhonghang Li, Zongwei Li, Yuxuan Chen, Han Shi, Jiawei Li, Jierun Chen, Haoli Bai, Chao Huang,
- Abstract要約: コンテンツ消費からリポジトリ探索を分離するフレームワークであるモデルを導入する。
モデルは、トークンの消費を著しく減少させながら、正確さを推論することで、最先端のベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 32.264145740214616
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Repository-scale code reasoning is a cornerstone of modern AI-assisted software engineering, enabling Large Language Models (LLMs) to handle complex workflows from program comprehension to complex debugging. However, balancing accuracy with context cost remains a significant bottleneck, as existing agentic approaches often waste computational resources through inefficient, iterative full-text exploration. To address this, we introduce \model, a framework that decouples repository exploration from content consumption. \model\ utilizes a structural scouting mechanism to navigate a lightweight semantic-structural map of the codebase, allowing the system to trace dependencies and pinpoint relevant targets without the overhead of full-text ingestion. By leveraging structure-aware navigation tools regulated by a cost-aware policy, the framework constructs high-value contexts in a single, optimized step. Extensive evaluations on the SWE-QA, LongCodeQA, LOC-BENCH, and GitTaskBench benchmarks demonstrate that \model\ consistently outperforms state-of-the-art baselines in reasoning accuracy while significantly reducing token consumption, validating the efficiency of scouting-first strategies for large-scale code reasoning. Source code is available at https://github.com/HKUDS/FastCode.
- Abstract(参考訳): Repository-scale code reasoningは、プログラム理解から複雑なデバッグまでの複雑なワークフローを処理するLarge Language Models(LLM)を可能にする、現代のAI支援ソフトウェアエンジニアリングの基盤である。
しかし、既存のエージェント的アプローチは非効率で反復的な全文探索を通じて計算資源を浪費することが多いため、文脈コストと精度のバランスは依然として重大なボトルネックである。
これを解決するために、コンテンツ消費からリポジトリ探索を分離するフレームワークである \model を紹介します。
\model\は、コードベースの軽量なセマンティック構造マップをナビゲートする構造的スカウト機構を利用して、システムがフルテキストの取り込みのオーバーヘッドなしに依存関係をトレースし、関連するターゲットをピンポイントすることを可能にする。
コスト対応ポリシーによって規制される構造対応ナビゲーションツールを活用することで、フレームワークは単一の最適化されたステップで高価値なコンテキストを構築する。
SWE-QA、LongCodeQA、LOC-BENCH、GitTaskBenchベンチマークの大規模な評価によると、 \model\は、トークン消費を大幅に削減し、大規模コード推論のためのスカウトファースト戦略の効率を検証しながら、最先端のベースラインを一貫して上回っている。
ソースコードはhttps://github.com/HKUDS/FastCodeで入手できる。
関連論文リスト
- Multi-CoLoR: Context-Aware Localization and Reasoning across Multi-Language Codebases [1.4216413758677147]
マルチ言語間におけるコンテキスト認識のローカライゼーションと推論のためのフレームワークであるMulti-CoLoRを提案する。
複雑なソフトウェアエコシステムを横断するために、組織的知識検索とグラフベースの推論を統合する。
論文 参考訳(メタデータ) (2026-02-23T00:54:59Z) - LogitsCoder: Towards Efficient Chain-of-Thought Path Search via Logits Preference Decoding for Code Generation [86.08600027874662]
コード生成のための軽量なロジットレベル制御機構を通じて、チェーン・オブ・シント推論を強化する新しいフレームワークであるLogitsCoderを提案する。
我々はLogitsCoderがより効率的で高品質な推論チェーンを生成することを示し、ベースライン方式に比べてコード生成性能が優れていることを示した。
論文 参考訳(メタデータ) (2026-02-15T08:52:19Z) - AlignCoder: Aligning Retrieval with Target Intent for Repository-Level Code Completion [55.21541958868449]
リポジトリレベルのコード補完フレームワークであるAlignCoderを提案する。
我々のフレームワークは、初期クエリとターゲットコードのセマンティックギャップを橋渡しする拡張クエリを生成する。
我々は、拡張クエリにおける推論情報を活用してより正確な検索を行うAlignRetrieverのトレーニングに強化学習を採用する。
論文 参考訳(メタデータ) (2026-01-27T15:23:14Z) - SpecMap: Hierarchical LLM Agent for Datasheet-to-Code Traceability Link Recovery in Systems Engineering [8.235446273226277]
組み込みシステムとそれに対応するコード実装の間のトレーサビリティは、システムエンジニアリングにおける根本的な課題である。
既存のトレーサビリティリンク回復アプローチは、語彙的類似性と情報検索技術に依存している。
本稿では,意味解析に大規模言語モデルを用いる階層型コードマッピング手法を提案する。
論文 参考訳(メタデータ) (2026-01-16T11:50:18Z) - ABC-Bench: Benchmarking Agentic Backend Coding in Real-World Development [72.4729759618632]
本稿では,現実的かつ実行可能なワークフロー内でエージェントバックエンドコーディングを評価するベンチマークであるABC-Benchを紹介する。
オープンソースリポジトリから8つの言語と19のフレームワークにまたがる224の実践的なタスクをキュレートしました。
我々の評価は、最先端モデルでさえ、これらの総合的なタスクに対して信頼性の高いパフォーマンスを提供するのに苦労していることを示している。
論文 参考訳(メタデータ) (2026-01-16T08:23:52Z) - Completion by Comprehension: Guiding Code Generation with Multi-Granularity Understanding [37.78627994991325]
CoCoは、大規模なコードリポジトリから複数の粒度コンテキストでコード補完を可能にする新しいフレームワークである。
CrossCodeEvalとRepoEvalベンチマークの実験は、CoCoが最先端のベースラインを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2025-12-04T07:37:59Z) - Fast Thinking for Large Language Models [67.7238685892317]
我々は、訓練中にのみ簡潔なCoTスケッチを使用して個別戦略事前のコードブックを学習するフレームワークであるLatent Codebooks for Fast Thinkingを紹介した。
推論では、コードブックから抽出した少数の連続的思考スイッチのモデル条件を1パスにすることで、明確な推論トークンを生成することなく、戦略レベルのガイダンスを可能にする。
論文 参考訳(メタデータ) (2025-09-28T04:19:48Z) - ReCode: Improving LLM-based Code Repair with Fine-Grained Retrieval-Augmented Generation [26.836612605244596]
本稿では,高精度かつ効率的なコード修復を行うための,詳細な検索強化型テキスト内学習フレームワークReCodeを提案する。
ReCodeは、(1)予備アルゴリズム型予測を用いて検索空間を狭めるアルゴリズム対応検索戦略、(2)コードとテキストの入力を別々に処理するモジュール型デュアルエンコーダアーキテクチャである。
RACodeBenchと競合するプログラミングデータセットの実験結果から、ReCodeは推論コストを大幅に削減し、高い修復精度を実現することが示された。
論文 参考訳(メタデータ) (2025-09-02T13:58:48Z) - CoRe: Benchmarking LLMs Code Reasoning Capabilities through Static Analysis Tasks [14.408364047538578]
大規模言語モデル(LLM)は、ソフトウェア工学の様々な領域で広く採用されている。
この研究は、基本的な静的解析タスク上でのLCMを評価するために設計されたベンチマークであるCOREを提示する。
論文 参考訳(メタデータ) (2025-07-03T01:35:58Z) - Code to Think, Think to Code: A Survey on Code-Enhanced Reasoning and Reasoning-Driven Code Intelligence in LLMs [53.00384299879513]
大規模言語モデル(LLM)では、コードと推論が互いに強化される。
コードは検証可能な実行パスを提供し、論理的な分解を強制し、実行時の検証を可能にする。
我々は,このシナジーを強化するために,重要な課題を特定し,今後の研究方向性を提案する。
論文 参考訳(メタデータ) (2025-02-26T18:55:42Z) - Codev-Bench: How Do LLMs Understand Developer-Centric Code Completion? [60.84912551069379]
Code-Development Benchmark (Codev-Bench)は、細粒度で現実世界、リポジトリレベル、開発者中心の評価フレームワークです。
Codev-Agentは、リポジトリのクローリングを自動化し、実行環境を構築し、既存のユニットテストから動的呼び出しチェーンを抽出し、データ漏洩を避けるために新しいテストサンプルを生成するエージェントベースのシステムである。
論文 参考訳(メタデータ) (2024-10-02T09:11:10Z) - On the Impacts of Contexts on Repository-Level Code Generation [5.641402231731082]
本稿ではレポジトリレベルのコード生成を評価するために設計された新しいベンチマークであるRepoExecを紹介する。
実行可能性、包括的なテストケース生成による機能的正当性、ファイル間のコンテキストの正確な利用という3つの重要な側面に注目します。
論文 参考訳(メタデータ) (2024-06-17T10:45:22Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z) - Understanding Long Programming Languages with Structure-Aware Sparse
Attention [32.21325784213584]
本稿では,SASA(Structure-Aware Sparse Attention Mechanism)を提案する。
SASAの主要なコンポーネントは、上位$kのスパースアテンションとAST(Abstract Syntax Tree)ベースの構造アテンションである。
CodeXGLUEタスクの実験では、SASAは競合するベースラインよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-05-27T02:50:57Z) - Precise Learning of Source Code Contextual Semantics via Hierarchical
Dependence Structure and Graph Attention Networks [28.212889828892664]
階層的な依存関係を組み込んだ新しいソースコードモデルを提案する。
本稿では,基本ブロックの構文構造,すなわち対応するASTをソースコードモデルに導入し,十分な情報を提供する。
その結果,本モデルではパラメータのスケールを50%削減し,プログラム分類タスクの精度を4%向上させることができた。
論文 参考訳(メタデータ) (2021-11-20T04:03:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。