論文の概要: LLMSA: A Compositional Neuro-Symbolic Approach to Compilation-free and Customizable Static Analysis
- arxiv url: http://arxiv.org/abs/2412.14399v1
- Date: Wed, 18 Dec 2024 23:14:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:32:17.712100
- Title: LLMSA: A Compositional Neuro-Symbolic Approach to Compilation-free and Customizable Static Analysis
- Title(参考訳): LLMSA: コンパイル不要でカスタマイズ可能な静的解析のための合成ニューロシンボリックアプローチ
- Authors: Chengpeng Wang, Yifei Gao, Wuqi Zhang, Xuwei Liu, Qingkai Shi, Xiangyu Zhang,
- Abstract要約: 幻覚を減らしたコンパイル不要でカスタマイズ可能な静的解析のための合成ニューロシンボリックアプローチを提案する。
66.27%の精度と78.57%のリコールで、F1の工業的アプローチを0.20ポイント上回っている。
- 参考スコア(独自算出の注目度): 13.993290878789779
- License:
- Abstract: Static analysis is essential for program optimization, bug detection, and debugging, but its reliance on compilation and limited customization hampers practical use. Advances in LLMs enable a new paradigm of compilation-free, customizable analysis via prompting. LLMs excel in interpreting program semantics on small code snippets and allow users to define analysis tasks in natural language with few-shot examples. However, misalignment with program semantics can cause hallucinations, especially in sophisticated semantic analysis upon lengthy code snippets. We propose LLMSA, a compositional neuro-symbolic approach for compilation-free, customizable static analysis with reduced hallucinations. Specifically, we propose an analysis policy language to support users decomposing an analysis problem into several sub-problems that target simple syntactic or semantic properties upon smaller code snippets. The problem decomposition enables the LLMs to target more manageable semantic-related sub-problems, while the syntactic ones are resolved by parsing-based analysis without hallucinations. An analysis policy is evaluated with lazy, incremental, and parallel prompting, which mitigates the hallucinations and improves the performance. It is shown that LLMSA achieves comparable and even superior performance to existing techniques in various clients. For instance, it attains 66.27% precision and 78.57% recall in taint vulnerability detection, surpassing an industrial approach in F1 score by 0.20.
- Abstract(参考訳): 静的解析は、プログラムの最適化、バグ検出、デバッグに不可欠であるが、コンパイルと限定的なカスタマイズハッパーの実用性に依存している。
LLMの進歩は、プロンプトによるコンパイル不要でカスタマイズ可能な分析の新しいパラダイムを可能にする。
LLMは、小さなコードスニペットのプログラムセマンティクスの解釈に優れており、ユーザはいくつかの例で自然言語で分析タスクを定義できる。
しかし、プログラムのセマンティクスとのミスアライメントは、特に長いコードスニペットの洗練されたセマンティクス解析において幻覚を引き起こす可能性がある。
幻覚を減らしたコンパイル不要でカスタマイズ可能な静的解析のための合成型ニューロシンボリックアプローチ LLMSA を提案する。
具体的には,解析問題を複数のサブプロブレムに分解し,より小さなコードスニペット上での単純な構文的・意味的特性を目標とする解析ポリシー言語を提案する。
問題を分解することで、LLMはより管理可能なセマンティック関連サブプロブレムをターゲットとし、構文解析は幻覚のない解析によって解決される。
解析ポリシは、幻覚を緩和し、性能を改善する遅延、インクリメンタル、並列プロンプトによって評価される。
LLMSAは、様々なクライアントで既存の技術に匹敵する、さらに優れた性能を発揮することが示されている。
例えば、66.27%の精度と78.57%のリコールで、F1の工業的アプローチを0.20ポイント上回っている。
関連論文リスト
- LLM-based Optimization of Compound AI Systems: A Survey [64.39860384538338]
複合AIシステムでは、LLMコール、レトリバー、コードインタプリタ、ツールなどのコンポーネントが相互接続される。
近年の進歩により, LLM を用いたパラメータのエンドツーエンド最適化が可能となった。
本稿では,複合AIシステムのLCMに基づく最適化の原理と動向について述べる。
論文 参考訳(メタデータ) (2024-10-21T18:06:25Z) - Semantic-Enhanced Indirect Call Analysis with Large Language Models [14.517268546437917]
本稿では,間接的呼分析の有効性を高めるためにセマンティック・エンハンスメント・アナリティクス(SEA)を提案する。
一般的なプログラミングのプラクティスでは、間接呼び出しは、しばしば呼び出されたターゲットとセマンティックな類似性を示す。
SEAは、複数の視点から間接呼び出しとターゲット関数の両方の自然言語要約を生成する。
論文 参考訳(メタデータ) (2024-08-08T10:04:50Z) - Categorical Syllogisms Revisited: A Review of the Logical Reasoning Abilities of LLMs for Analyzing Categorical Syllogism [62.571419297164645]
本稿では,分類的シロジズムを解析するための大規模言語モデルの論理的推論能力に関する先行研究を体系的に概説する。
まず、純粋に論理的な観点から分類的シロジズムの可能なバリエーションについて検討する。
次に、既存のデータセットでテストされた基本的な設定(ムードとフィギュア)を調べます。
論文 参考訳(メタデータ) (2024-06-26T21:17:20Z) - The Emergence of Large Language Models in Static Analysis: A First Look
through Micro-Benchmarks [3.848607479075651]
我々は,Pythonプログラムのコールグラフ解析と型推論を改善する上で,現在のLarge Language Models (LLM) が果たす役割について検討する。
本研究により, LLMは型推論において有望な結果を示し, 従来の手法よりも高い精度を示したが, コールグラフ解析では限界が認められた。
論文 参考訳(メタデータ) (2024-02-27T16:53:53Z) - LLMDFA: Analyzing Dataflow in Code with Large Language Models [8.92611389987991]
本稿では,コンパイル不要でカスタマイズ可能なデータフロー解析フレームワークLLMDFAを提案する。
問題をいくつかのサブタスクに分解し、一連の新しい戦略を導入する。
LLMDFAは平均87.10%の精度と80.77%のリコールを達成し、F1スコアを最大0.35に向上させた。
論文 参考訳(メタデータ) (2024-02-16T15:21:35Z) - Zero-shot Causal Graph Extrapolation from Text via LLMs [50.596179963913045]
我々は,自然言語から因果関係を推定する大規模言語モデル (LLM) の能力を評価する。
LLMは、(特別な)トレーニングサンプルを必要とせずにペア関係のベンチマークで競合性能を示す。
我々は、反復的なペアワイズクエリを通して因果グラフを外挿するアプローチを拡張した。
論文 参考訳(メタデータ) (2023-12-22T13:14:38Z) - E&V: Prompting Large Language Models to Perform Static Analysis by
Pseudo-code Execution and Verification [7.745665775992235]
大きな言語モデル(LLM)は、ソフトウェア工学のタスクに新しい機能を提供する。
LLMは擬似コードの実行をシミュレートし、最小限の努力で擬似コードにエンコードされた静的解析を効果的に実行する。
E&Vは、外部のオラクルを必要とせずに擬似コード実行の検証プロセスを含む。
論文 参考訳(メタデータ) (2023-12-13T19:31:00Z) - Sentiment Analysis through LLM Negotiations [58.67939611291001]
感情分析の標準的なパラダイムは、単一のLCMに依存して、その決定を1ラウンドで行うことである。
本稿では,感情分析のためのマルチLLMネゴシエーションフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-03T12:35:29Z) - The Hitchhiker's Guide to Program Analysis: A Journey with Large
Language Models [18.026567399243]
大規模言語モデル(LLM)は静的解析に代わる有望な選択肢を提供する。
本稿では,LLM支援静的解析のオープン空間を深く掘り下げる。
LLiftは,静的解析ツールとLLMの両方を併用した,完全に自動化されたフレームワークである。
論文 参考訳(メタデータ) (2023-08-01T02:57:43Z) - Sentiment Analysis in the Era of Large Language Models: A Reality Check [69.97942065617664]
本稿では,大規模言語モデル(LLM)の様々な感情分析タスクの実行能力について検討する。
26のデータセット上の13のタスクのパフォーマンスを評価し、ドメイン固有のデータセットに基づいて訓練された小言語モデル(SLM)と比較した。
論文 参考訳(メタデータ) (2023-05-24T10:45:25Z) - Reducing Confusion in Active Learning for Part-Of-Speech Tagging [100.08742107682264]
アクティブラーニング(AL)は、データ選択アルゴリズムを使用して、アノテーションコストを最小限に抑えるために有用なトレーニングサンプルを選択する。
本研究では、特定の出力タグのペア間の混乱を最大に低減するインスタンスの選択問題について検討する。
提案するAL戦略は,他のAL戦略よりも有意差で優れている。
論文 参考訳(メタデータ) (2020-11-02T06:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。