論文の概要: CodeCircuit: Toward Inferring LLM-Generated Code Correctness via Attribution Graphs
- arxiv url: http://arxiv.org/abs/2602.07080v1
- Date: Fri, 06 Feb 2026 03:49:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.429439
- Title: CodeCircuit: Toward Inferring LLM-Generated Code Correctness via Attribution Graphs
- Title(参考訳): CodeCircuit: 属性グラフによるLLM生成コードの正当性推定に向けて
- Authors: Yicheng He, Zheng Zhao, Zhou Kaiyu, Bryan Dai, Jie Fu, Yonghui Yang,
- Abstract要約: 本研究の目的は、コード生成中に論理的妥当性を予測可能な内部デオード可能な信号が、モデル内のニューラルダイナミクスで符号化されているかどうかを検討することである。
複雑な残留流を分解することにより,音の推論と論理的失敗を区別する構造的シグネチャを同定することを目的とする。
Python、C++、Javaでの分析では、固有の正当性信号が多様な構文で堅牢であることが確認されている。
- 参考スコア(独自算出の注目度): 13.488544043942495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current paradigms for code verification rely heavily on external mechanisms-such as execution-based unit tests or auxiliary LLM judges-which are often labor-intensive or limited by the judging model's own capabilities. This raises a fundamental, yet unexplored question: Can an LLM's functional correctness be assessed purely from its internal computational structure? Our primary objective is to investigate whether the model's neural dynamics encode internally decodable signals that are predictive of logical validity during code generation. Inspired by mechanistic interpretability, we propose to treat code verification as a mechanistic diagnostic task, mapping the model's explicit algorithmic trajectory into line-level attribution graphs. By decomposing complex residual flows, we aim to identify the structural signatures that distinguish sound reasoning from logical failure within the model's internal circuits. Analysis across Python, C++, and Java confirms that intrinsic correctness signals are robust across diverse syntaxes. Topological features from these internal graphs predict correctness more reliably than surface heuristics and enable targeted causal interventions to fix erroneous logic. These findings establish internal introspection as a decodable property for verifying generated code. Our code is at https:// github.com/bruno686/CodeCircuit.
- Abstract(参考訳): コード検証の現在のパラダイムは、実行ベースのユニットテストや補助的なLCM判断など外部メカニズムに大きく依存している。
LLMの機能的正しさは、内部の計算構造から純粋に評価できるのか?
我々の主な目的は、モデルのニューラルダイナミクスが、コード生成中に論理的妥当性を予測可能な内部デオードブル信号をエンコードするかどうかを調べることである。
機械的解釈性に着想を得て,モデルの明示的なアルゴリズム軌道を行レベルの属性グラフにマッピングすることで,コード検証を機械的診断タスクとして扱うことを提案する。
複雑な残留流を分解することにより、モデルの内部回路内の論理的故障と音響推論を区別する構造的シグネチャを同定することを目的とする。
Python、C++、Javaでの分析では、固有の正当性信号が多様な構文で堅牢であることが確認されている。
これらの内部グラフのトポロジ的特徴は、表面ヒューリスティックスよりも確実に正当性を予測し、ターゲットの因果的介入によって誤った論理を修正できる。
これらの知見は、生成したコードを検証するためのデオード可能なプロパティとして内部イントロスペクションを確立した。
私たちのコードはhttps:// github.com/bruno686/CodeCircuitにあります。
関連論文リスト
- A Causal Perspective on Measuring, Explaining and Mitigating Smells in LLM-Generated Code [49.09545217453401]
Propensity Smelly Score (PSC) は、特定の臭いの種類を生成する確率を推定する計量である。
我々は、生成戦略、モデルサイズ、モデルアーキテクチャ、および生成したコードの構造特性をいかに形成するかを識別する。
PSCは、開発者がモデルの振る舞いを解釈し、コード品質を評価するのに役立つ。
論文 参考訳(メタデータ) (2025-11-19T19:18:28Z) - QiMeng-SALV: Signal-Aware Learning for Verilog Code Generation [47.82802346420197]
我々は,Verilogコード生成のための信号認識学習(QiMeng-SALV)を提案する。
トレーニングデータにおける参照モジュールの機能的正当性を,参照モジュールの機能的正当性と比較することにより検証する。
最後に,信号レベル符号セグメントに最適化された信号認識型DPOを提案する。
論文 参考訳(メタデータ) (2025-10-22T06:58:07Z) - Mechanistic Interpretability of Code Correctness in LLMs via Sparse Autoencoders [0.0]
スパースオートエンコーダを用いて大規模言語モデルを分解し,コード正当性に対応する方向を特定する。
LLMにおける符号の正当性方向は誤りを確実に予測するのに対して、補正能力は統計的に有意であるが、修正エラーと正しい符号の保存との間にはトレードオフがある。
戦略の推進は、詳細な問題記述よりもテスト例を優先すべきであり、予測器の指示は、開発者レビューのエラーアラームとして機能し、これらの予測器は選択的なステアリングをガイドできる。
論文 参考訳(メタデータ) (2025-10-03T11:44:21Z) - Insights from Verification: Training a Verilog Generation LLM with Reinforcement Learning with Testbench Feedback [36.69082579950107]
大規模言語モデル(LLM)は、自然言語記述からVerilog生成において強力な性能を示している。
本稿では,テストベンチからの検証洞察をVerilog 生成 LLM のトレーニングに統合する手法を提案する。
論文 参考訳(メタデータ) (2025-04-22T11:38:14Z) - Correctness Assessment of Code Generated by Large Language Models Using Internal Representations [4.32362000083889]
大規模言語モデル(LLM)が生成するコードの正確性を評価する新しいフレームワークであるOPENIAを紹介する。
我々の経験的分析により、これらの内部表現が潜時情報を符号化し、生成したコードの正しさと強く相関していることが明らかとなった。
OPENIAはベースラインモデルより一貫して優れており、高い精度、精度、リコール、F1スコアを実現し、スタンドアロンコード生成の最大2倍の改善を実現している。
論文 参考訳(メタデータ) (2025-01-22T15:04:13Z) - LatentQA: Teaching LLMs to Decode Activations Into Natural Language [72.87064562349742]
自然言語におけるモデルアクティベーションに関するオープンな疑問に答えるタスクであるLatentQAを紹介する。
本稿では,アクティベーションと関連する質問応答ペアのデータセット上で,デコーダLLMを微調整するLatent Interpretation Tuning (LIT)を提案する。
我々のデコーダはまた、ステレオタイプ付き文のモデルのデバイアス化や世代ごとの感情制御など、モデルを制御するために使用する差別化可能な損失も規定している。
論文 参考訳(メタデータ) (2024-12-11T18:59:33Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。