論文の概要: Trim My View: An LLM-Based Code Query System for Module Retrieval in Robotic Firmware
- arxiv url: http://arxiv.org/abs/2503.03969v1
- Date: Wed, 05 Mar 2025 23:40:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 16:01:36.949641
- Title: Trim My View: An LLM-Based Code Query System for Module Retrieval in Robotic Firmware
- Title(参考訳): Trim My View:ロボットファームウェアにおけるモジュール検索のためのLLMベースのコードクエリシステム
- Authors: Sima Arasteh, Pegah Jandaghi, Nicolaas Weideman, Dennis Perepech, Mukund Raghothaman, Christophe Hauser, Luis Garcia,
- Abstract要約: 本稿では, 2次分解法, 除算法, LLM による関数要約の組み合わせが, 経済的なエンジン構築にどのように役立つかを示す。
我々は,この手法を3つの基盤となるオープンソースLLMを用いてインスタンス化し,ロボットファームウェアのモジュール識別の有効性を測定した。
- 参考スコア(独自算出の注目度): 7.308605205194037
- License:
- Abstract: The software compilation process has a tendency to obscure the original design of the system and makes it difficult both to identify individual components and discern their purpose simply by examining the resulting binary code. Although decompilation techniques attempt to recover higher-level source code from the machine code in question, they are not fully able to restore the semantics of the original functions. Furthermore, binaries are often stripped of metadata, and this makes it challenging to reverse engineer complex binary software. In this paper we show how a combination of binary decomposition techniques, decompilation passes, and LLM-powered function summarization can be used to build an economical engine to identify modules in stripped binaries and associate them with high-level natural language descriptions. We instantiated this technique with three underlying open-source LLMs -- CodeQwen, DeepSeek-Coder and CodeStral -- and measured its effectiveness in identifying modules in robotics firmware. This experimental evaluation involved 467 modules from four devices from the ArduPilot software suite, and showed that CodeStral, the best-performing backend LLM, achieves an average F1-score of 0.68 with an online running time of just a handful of seconds.
- Abstract(参考訳): ソフトウェアコンパイルプロセスは、システムのオリジナルの設計を曖昧にする傾向があり、個々のコンポーネントを特定し、その結果のバイナリコードを調べるだけで目的を識別することは困難である。
逆コンパイル技術は、問題のマシンコードから高レベルのソースコードを復元しようとするが、元の関数のセマンティクスを完全に復元することはできない。
さらに、バイナリはメタデータから取り除かれることが多いため、複雑なバイナリソフトウェアをリバースエンジニアリングすることは困難である。
本稿では, 2次分解法, 除算パス, LLMによる関数要約の組み合わせを用いて, 取り除かれたバイナリ内のモジュールを識別し, それらを高レベルな自然言語記述に関連付ける経済的エンジンを構築する方法について述べる。
私たちはこのテクニックを,3つの基盤となるオープンソースLLM – CodeQwen,DeepSeek-Coder,CodeStral – でインスタンス化し,ロボティクスファームウェアのモジュール識別の有効性を測定しました。
この実験評価では、ArduPilotソフトウェアスイートの4つのデバイスから467個のモジュールを抽出し、最高のパフォーマンスのバックエンドであるLLMであるCodeStralが、オンラインランニング時間のわずか数秒で平均0.68のF1スコアを達成した。
関連論文リスト
- Towards Specification-Driven LLM-Based Generation of Embedded Automotive Software [0.4369550829556578]
本稿では,LLMによるコード生成と形式検証を組み合わせ,重要な組込みソフトウェアを作成する方法について検討する。
目標は、仕様のみから産業品質のコードを自動的に生成することだ。
論文 参考訳(メタデータ) (2024-11-20T12:38:17Z) - No Man is an Island: Towards Fully Automatic Programming by Code Search, Code Generation and Program Repair [9.562123938545522]
ツールネームは、様々なコード検索、生成、修復ツールを統合することができ、これら3つの研究領域を初めて組み合わせることができる。
例えば、CodeLlamaは62.53%の改善で267のプログラミング問題を解決するのに役立ちます。
論文 参考訳(メタデータ) (2024-09-05T06:24:29Z) - Uncovering LLM-Generated Code: A Zero-Shot Synthetic Code Detector via Code Rewriting [78.48355455324688]
原符号とLLM書き換え版との類似性に基づく新しいゼロショット合成符号検出器を提案する。
以上の結果から,既存のSOTA合成コンテンツ検出装置よりも顕著な改善が得られた。
論文 参考訳(メタデータ) (2024-05-25T08:57:28Z) - How Far Have We Gone in Binary Code Understanding Using Large Language Models [51.527805834378974]
バイナリコード理解におけるLarge Language Models(LLM)の有効性を評価するためのベンチマークを提案する。
評価の結果、既存のLLMはバイナリコードをある程度理解でき、それによってバイナリコード解析の効率が向上することが明らかとなった。
論文 参考訳(メタデータ) (2024-04-15T14:44:08Z) - SparseCoder: Identifier-Aware Sparse Transformer for File-Level Code
Summarization [51.67317895094664]
本稿では,大規模なソースコードプロジェクトの理解と維持を支援するファイルレベルのコード要約について検討する。
長いコードシーケンスを効果的に処理するための識別子対応スパース変換器であるSparseCoderを提案する。
論文 参考訳(メタデータ) (2024-01-26T09:23:27Z) - CodeChain: Towards Modular Code Generation Through Chain of Self-revisions with Representative Sub-modules [51.82044734879657]
我々は,自己修正の連鎖を通じてモジュール化されたコード生成を誘発する,新しい推論フレームワークであるCodeChainを提案する。
CodeChainは、生成したソリューションのモジュール性と正確性の両方を大幅に向上させ、APPSで35%、CodeContestsで76%の相対パス@1の改善を実現しています。
論文 参考訳(メタデータ) (2023-10-13T10:17:48Z) - Guess & Sketch: Language Model Guided Transpilation [59.02147255276078]
学習されたトランスパイレーションは、手作業による書き直しやエンジニアリングの取り組みに代わるものだ。
確率的ニューラルネットワークモデル(LM)は、入力毎に可塑性出力を生成するが、正確性を保証するコストがかかる。
Guess & Sketch は LM の特徴からアライメントと信頼性情報を抽出し、意味的等価性を解決するためにシンボリック・ソルバに渡す。
論文 参考訳(メタデータ) (2023-09-25T15:42:18Z) - CodeTF: One-stop Transformer Library for State-of-the-art Code LLM [72.1638273937025]
我々は、最先端のCode LLMとコードインテリジェンスのためのオープンソースのTransformerベースのライブラリであるCodeTFを紹介する。
我々のライブラリは、事前訓練されたコードLLMモデルと人気のあるコードベンチマークのコレクションをサポートします。
CodeTFが機械学習/生成AIとソフトウェア工学のギャップを埋められることを願っている。
論文 参考訳(メタデータ) (2023-05-31T05:24:48Z) - Improving type information inferred by decompilers with supervised
machine learning [0.0]
ソフトウェアリバースエンジニアリングでは、逆コンパイルはバイナリファイルからソースコードを回復するプロセスである。
関数によって返される高レベルな型を推測できる異なる分類モデルを構築する。
私たちのシステムは、79.1%のF1測定で関数戻り型を予測できますが、最良の逆コンパイラは30%のF1測定を得ます。
論文 参考訳(メタデータ) (2021-01-19T11:45:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。