論文の概要: Efficient Code Analysis via Graph-Guided Large Language Models
- arxiv url: http://arxiv.org/abs/2601.12890v2
- Date: Thu, 22 Jan 2026 02:41:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 13:30:18.394696
- Title: Efficient Code Analysis via Graph-Guided Large Language Models
- Title(参考訳): グラフ誘導大言語モデルによる効率的なコード解析
- Authors: Hang Gao, Tao Peng, Baoquan Cui, Hong Huang, Fengge Wu, Junsuo Zhao, Jian Zhang,
- Abstract要約: 本稿では,大規模言語モデルによる悪意ある行動のローカライズ能力を高めるグラフ中心の注意獲得パイプラインを提案する。
このアプローチはプロジェクトをコードグラフに解析し、LLMを使用してノードに意味的および構造的なシグナルをエンコードし、疎い監視の下でグラフニューラルネットワーク(GNN)をトレーニングする。
- 参考スコア(独自算出の注目度): 14.569998138597393
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have significantly advanced code analysis tasks, yet they struggle to detect malicious behaviors fragmented across files, whose intricate dependencies easily get lost in the vast amount of benign code. We therefore propose a graph-centric attention acquisition pipeline that enhances LLMs' ability to localize malicious behavior. The approach parses a project into a code graph, uses an LLM to encode nodes with semantic and structural signals, and trains a Graph Neural Network (GNN) under sparse supervision. The GNN performs an initial detection, and by interpreting these predictions, identifies key code sections that are most likely to contain malicious behavior. These influential regions are then used to guide the LLM's attention for in-depth analysis. This strategy significantly reduces interference from irrelevant context while maintaining low annotation costs. Extensive experiments show that the method consistently outperforms existing approaches on multiple public and custom datasets, highlighting its potential for practical deployment in software security scenarios.
- Abstract(参考訳): 大規模言語モデル(LLM)は、コード解析タスクが大幅に進歩しているが、複雑な依存関係が大量の良質なコードで簡単に失われる、ファイル間で断片化された悪意のある振る舞いを検出するのに苦労している。
そこで我々は,LLMが悪意ある振る舞いをローカライズする能力を高めるために,グラフ中心の注意獲得パイプラインを提案する。
このアプローチはプロジェクトをコードグラフに解析し、LLMを使用してノードに意味的および構造的なシグナルをエンコードし、疎い監視の下でグラフニューラルネットワーク(GNN)をトレーニングする。
GNNは初期検出を行い、これらの予測を解釈することで、悪意のある振る舞いを含む可能性が最も高い主要なコードセクションを特定する。
これらの影響力のある領域は、深い分析のためにLLMの注意を導くために使用される。
この戦略は、低いアノテーションコストを維持しながら、無関係なコンテキストからの干渉を著しく低減します。
大規模な実験により、このメソッドは複数のパブリックデータセットとカスタムデータセットの既存のアプローチを一貫して上回り、ソフトウェアセキュリティシナリオにおける実践的なデプロイの可能性を強調している。
関連論文リスト
- GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - Scalability Matters: Overcoming Challenges in InstructGLM with Similarity-Degree-Based Sampling [1.2805157669888096]
提案するSDM-InstructGLMは,GNNに依存することなく,拡張性と効率を向上する命令調整グラフ言語モデル(InstructGLM)フレームワークである。
本手法では,ノード間類似度と次数集中度に基づいてグラフ情報を選択的にサンプリングし,符号化する,類似度に基づくバイアス付きランダムウォーク機構を提案する。
本結果は,LLMのみのグラフ処理の実現可能性を示し,命令ベースの微調整によって最適化されたスケーラブルかつ解釈可能なグラフ言語モデル(GLM)を実現する。
論文 参考訳(メタデータ) (2025-05-02T06:08:21Z) - Few-Shot Graph Out-of-Distribution Detection with LLMs [34.42512005781724]
本稿では,大規模言語モデル (LLM) とグラフニューラルネットワーク (GNN) の長所を組み合わせたフレームワークを提案する。
LLM-GOODは人間のアノテーションのコストを大幅に削減し、ID分類精度とOOD検出性能の両方において最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2025-03-28T02:37:18Z) - CGP-Tuning: Structure-Aware Soft Prompt Tuning for Code Vulnerability Detection [15.013699967804987]
本稿では,脆弱性検出のためのCGP-Tuningを提案する。
CGP-Tuningでは、コードグラフ内のリッチなセマンティック情報をキャプチャするための型認識埋め込みと、効率的なクロスモーダルアライメントモジュールが導入されている。
最新のDiverseVulデータセットと3つの高度なオープンソースコードLLM、CodeLlama、CodeGemma、Qwen2.5-Coderで評価されている。
論文 参考訳(メタデータ) (2025-01-08T13:56:17Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - Vul-LMGNNs: Fusing language models and online-distilled graph neural networks for code vulnerability detection [5.536252767247838]
提案するVul-LMGNNは,学習済みのコードLMをグラフニューラルネットワーク(GNN)に統合し,意味情報と構造情報の層間伝播を可能にする。
Vul-LMGNNは、コードプロパティグラフ(CPG)を活用して、構文、制御フロー、データ依存性を統合し、ゲート付きGNNを使って構造抽出を行う。
論文 参考訳(メタデータ) (2024-04-23T03:48:18Z) - Exploring the Potential of Large Language Models (LLMs) in Learning on
Graphs [59.74814230246034]
大規模言語モデル(LLM)は、広範な共通知識と強力な意味理解能力を持つことが証明されている。
LLMs-as-EnhancersとLLMs-as-Predictorsの2つのパイプラインについて検討する。
論文 参考訳(メタデータ) (2023-07-07T05:31:31Z) - Software Vulnerability Detection via Deep Learning over Disaggregated
Code Graph Representation [57.92972327649165]
この研究は、コードコーパスから安全でないパターンを自動的に学習するためのディープラーニングアプローチを探求する。
コードには解析を伴うグラフ構造が自然に認められるため,プログラムの意味的文脈と構造的規則性の両方を利用する新しいグラフニューラルネットワーク(GNN)を開発する。
論文 参考訳(メタデータ) (2021-09-07T21:24:36Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。