論文の概要: Can Large Language Models Understand Intermediate Representations?
- arxiv url: http://arxiv.org/abs/2502.06854v1
- Date: Fri, 07 Feb 2025 17:23:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:10:45.412091
- Title: Can Large Language Models Understand Intermediate Representations?
- Title(参考訳): 大規模言語モデルは中間表現に理解できるか?
- Authors: Hailong Jiang, Jianfeng Zhu, Yao Wan, Bo Fang, Hongyu Zhang, Ruoming Jin, Qiang Guan,
- Abstract要約: 本稿では、中間表現(IR)理解におけるLLM(Large Language Models)の機能について検討する。
制御フローグラフ(CFG)再構成、逆コンパイル、コード要約、実行推論の4つのタスクのパフォーマンスを分析した。
この研究は、構造化IRデータセットの微調整と明示的な制御フローモデルの統合により、IR関連タスクの理解と処理を強化することを推奨している。
- 参考スコア(独自算出の注目度): 17.033963652676164
- License:
- Abstract: Intermediate Representations (IRs) are essential in compiler design and program analysis, yet their comprehension by Large Language Models (LLMs) remains underexplored. This paper presents a pioneering empirical study to investigate the capabilities of LLMs, including GPT-4, GPT-3, Gemma 2, LLaMA 3.1, and Code Llama, in understanding IRs. We analyze their performance across four tasks: Control Flow Graph (CFG) reconstruction, decompilation, code summarization, and execution reasoning. Our results indicate that while LLMs demonstrate competence in parsing IR syntax and recognizing high-level structures, they struggle with control flow reasoning, execution semantics, and loop handling. Specifically, they often misinterpret branching instructions, omit critical IR operations, and rely on heuristic-based reasoning, leading to errors in CFG reconstruction, IR decompilation, and execution reasoning. The study underscores the necessity for IR-specific enhancements in LLMs, recommending fine-tuning on structured IR datasets and integration of explicit control flow models to augment their comprehension and handling of IR-related tasks.
- Abstract(参考訳): 中間表現(IR)はコンパイラ設計やプログラム解析に必須であるが、Large Language Models (LLM) による理解はいまだ未定である。
本稿では, GPT-4, GPT-3, Gemma 2, LLaMA 3.1, Code LlamaなどのLCMのIR理解能力に関する先駆的な実証的研究を行った。
制御フローグラフ(CFG)再構成、逆コンパイル、コード要約、実行推論の4つのタスクのパフォーマンスを分析した。
この結果から,LLMはIR構文の解析や高次構造認識の能力を示す一方で,制御フローの推論,実行セマンティクス,ループ処理に苦慮していることが明らかとなった。
具体的には、分岐命令を誤って解釈し、重要なIR操作を省略し、ヒューリスティックな推論に依存し、CFG再構成、IR逆コンパイル、実行推論の誤りを引き起こす。
この研究は、LLMにおけるIR固有の拡張の必要性を強調し、構造化IRデータセットの微調整と明示的な制御フローモデルの統合を推奨し、IR関連タスクの理解と処理を強化する。
関連論文リスト
- Eliciting Critical Reasoning in Retrieval-Augmented Language Models via Contrastive Explanations [4.697267141773321]
Retrieval-augmented Generation (RAG) は、よりリッチな現実的コンテキストに体系的にアクセスする大規模言語モデル(LLM)をサポートするために、現代のNLPにおいて重要なメカニズムとして登場した。
近年の研究では、LLMはRAGに基づくインコンテキスト情報(誤った推論や幻覚につながる可能性のある制限)を批判的に分析するのに苦慮していることが示されている。
本稿では,RAGにおける批判的推論を,対照的な説明を通じてどのように引き起こすかを検討する。
論文 参考訳(メタデータ) (2024-10-30T10:11:53Z) - Inductive Learning of Logical Theories with LLMs: An Expressivity-Graded Analysis [9.865771016218549]
本研究は,Large Language Models(LLM)の機能と限界を分析するための,新しい体系的方法論を提案する。
この分析は、LLM性能に関する特定の推論課題の定量化を可能にする、複雑性グレードのw.r.t.ルール依存構造である。
論文 参考訳(メタデータ) (2024-08-15T16:41:00Z) - Towards Learning Abductive Reasoning using VSA Distributed Representations [56.31867341825068]
本稿では,文脈認識モデルを用いた帰納的ルール学習手法を提案する。
ARLCは、誘引的推論のための、新しくより広く適用可能な訓練目標を特徴としている。
プログラムされた知識の上に実例から漸進的に学習することで,ARLCのポストプログラミングトレーニングに対する堅牢性を示す。
論文 参考訳(メタデータ) (2024-06-27T12:05:55Z) - Self-Retrieval: End-to-End Information Retrieval with One Large Language Model [97.71181484082663]
本稿では,新たなLLM駆動情報検索アーキテクチャであるSelf-Retrievalを紹介する。
自己検索は、自己教師付き学習を通じて検索コーパスを内部化し、検索プロセスをシーケンシャルな通過生成に変換し、再ランク付けのための関連性評価を行う。
論文 参考訳(メタデータ) (2024-02-23T18:45:35Z) - INTERS: Unlocking the Power of Large Language Models in Search with Instruction Tuning [59.07490387145391]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて印象的な機能を示している。
情報検索(IR)タスクへのそれらの適用は、自然言語における多くのIR固有の概念の頻繁な発生のため、いまだに困難である。
我々は,3つの基本IRカテゴリにまたがる20のタスクを含む新しいインストラクションチューニングデータセット InterS を導入する。
論文 参考訳(メタデータ) (2024-01-12T12:10:28Z) - Can Large Language Models Understand Real-World Complex Instructions? [54.86632921036983]
大型言語モデル(LLM)は人間の指示を理解することができるが、複雑な命令には耐えられない。
既存のベンチマークでは、LLMが複雑な命令を理解する能力を評価するには不十分である。
複雑な命令を体系的に追従するLSMの能力を評価するためのベンチマークであるCellOを提案する。
論文 参考訳(メタデータ) (2023-09-17T04:18:39Z) - FAIR: Flow Type-Aware Pre-Training of Compiler Intermediate
Representations [36.030609139210426]
コンパイラ中間表現(IR)のためのフロー型認識事前学習モデルを提案する。
具体的には、FAIRがIRトークンのセマンティクス、フロー型情報、およびIRの全体的な表現を学べるようにすることを提案する。
実験の結果、FAIRは4つのコード関連下流タスクで最先端の結果を得ることができることがわかった。
論文 参考訳(メタデータ) (2023-09-09T15:51:49Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z) - LMs: Understanding Code Syntax and Semantics for Code Analysis [25.508254718438636]
我々は,大規模言語モデル(LLM)の機能と,ソフトウェア工学におけるコード解析の限界を評価する。
GPT4, GPT3.5, StarCoder, CodeLlama-13b-インストラクトという,最先端の4つの基礎モデルを採用している。
論文 参考訳(メタデータ) (2023-05-20T08:43:49Z) - Search-in-the-Chain: Interactively Enhancing Large Language Models with
Search for Knowledge-intensive Tasks [121.74957524305283]
本稿では、情報検索(IR)とLarge Language Model(LLM)のインタラクションのための、textbfSearch-in-the-Chain(SearChain)という新しいフレームワークを提案する。
実験の結果、SearChainは複雑な知識集約タスクにおける最先端のベースラインを上回っていることがわかった。
論文 参考訳(メタデータ) (2023-04-28T10:15:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。