論文の概要: MigGPT: Harnessing Large Language Models for Automated Migration of Out-of-Tree Linux Kernel Patches Across Versions
- arxiv url: http://arxiv.org/abs/2504.09474v1
- Date: Sun, 13 Apr 2025 08:08:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:55:38.488246
- Title: MigGPT: Harnessing Large Language Models for Automated Migration of Out-of-Tree Linux Kernel Patches Across Versions
- Title(参考訳): MigGPT: バージョンをまたいだLinuxカーネルの自動マイグレーションを実現するための大規模言語モデル
- Authors: Pucheng Dang, Di Huang, Dong Li, Kang Chen, Yuanbo Wen, Qi Guo, Xing Hu, Ninghui Sun,
- Abstract要約: 大規模言語モデル(LLM)は、様々な領域で顕著な進歩を示している。
MigGPTは、コードスニペット情報を保持するために新しいコード指紋構造を使用するフレームワークである。
- 参考スコア(独自算出の注目度): 24.744652237986276
- License:
- Abstract: Out-of-tree kernel patches are essential for adapting the Linux kernel to new hardware or enabling specific functionalities. Maintaining and updating these patches across different kernel versions demands significant effort from experienced engineers. Large language models (LLMs) have shown remarkable progress across various domains, suggesting their potential for automating out-of-tree kernel patch migration. However, our findings reveal that LLMs, while promising, struggle with incomplete code context understanding and inaccurate migration point identification. In this work, we propose MigGPT, a framework that employs a novel code fingerprint structure to retain code snippet information and incorporates three meticulously designed modules to improve the migration accuracy and efficiency of out-of-tree kernel patches. Furthermore, we establish a robust benchmark using real-world out-of-tree kernel patch projects to evaluate LLM capabilities. Evaluations show that MigGPT significantly outperforms the direct application of vanilla LLMs, achieving an average completion rate of 72.59% (50.74% improvement) for migration tasks.
- Abstract(参考訳): ツリー外のカーネルパッチは、Linuxカーネルを新しいハードウェアに適応させたり、特定の機能を有効にするために必須である。
異なるカーネルバージョンにわたるパッチのメンテナンスと更新には、経験豊富なエンジニアによる多大な努力が必要だ。
大規模言語モデル(LLM)は、さまざまな領域で顕著な進歩を示し、ツリー外のカーネルパッチマイグレーションを自動化する可能性を示唆している。
しかし,この結果から,LLMは有望ではあるが,不完全なコードコンテキスト理解と不正確なマイグレーションポイント識別に苦慮していることが明らかとなった。
本研究では,コードスニペット情報を保持するために新しいコードフィンガープリント構造を利用するフレームワークであるMigGPTを提案し,ツリー外カーネルパッチのマイグレーション精度と効率を向上させるために,巧妙に設計された3つのモジュールを組み込んだ。
さらに,LLMの能力を評価するために,実世界のアウトオブツリーカーネルパッチプロジェクトを用いた堅牢なベンチマークを構築した。
評価の結果、MigGPTはバニラLLMの直接適用を著しく上回り、移行作業における平均完了率は72.59%(50.74%)に達した。
関連論文リスト
- PATCH: Empowering Large Language Model with Programmer-Intent Guidance and Collaborative-Behavior Simulation for Automatic Bug Fixing [34.768989900184636]
バグ修正は、ソフトウェア開発とメンテナンスにおいて重要な意味を持つ。
最近の研究は、ソフトウェアバグを自動的に解決する大規模言語モデル(LLM)の可能性を探ることに大きく貢献している。
論文 参考訳(メタデータ) (2025-01-27T15:43:04Z) - SWE-Fixer: Training Open-Source LLMs for Effective and Efficient GitHub Issue Resolution [56.9361004704428]
大規模言語モデル(LLM)は、様々な複雑なタスクにまたがる顕著な習熟度を示している。
SWE-Fixerは、GitHubの問題を効果的かつ効率的に解決するために設計された、新しいオープンソースフレームワークである。
我々は,SWE-Bench LiteとVerifiedベンチマークに対するアプローチを評価し,オープンソースモデル間の最先端性能を実現する。
論文 参考訳(メタデータ) (2025-01-09T07:54:24Z) - GlitchMiner: Mining Glitch Tokens in Large Language Models via Gradient-based Discrete Optimization [5.962706501263955]
大規模言語モデル(LLM)のGlitchトークンは予測不可能な振る舞いを引き起こし、モデルの信頼性と安全性を脅かす。
我々は、グリッチトークンを効率的に識別する勾配に基づく離散最適化フレームワークであるGlitchMinerを提案する。
複数のLLMアーキテクチャに対する実験により、GlitchMinerは検出精度と適応性において既存の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-10-19T09:49:12Z) - KGym: A Platform and Dataset to Benchmark Large Language Models on Linux Kernel Crash Resolution [59.20933707301566]
大規模言語モデル(LLM)は、ますます現実的なソフトウェア工学(SE)タスクにおいて一貫して改善されている。
現実世界のソフトウェアスタックでは、Linuxカーネルのような基本的なシステムソフトウェアの開発にSEの取り組みが費やされています。
このような大規模システムレベルのソフトウェアを開発する際にMLモデルが有用かどうかを評価するため、kGymとkBenchを紹介する。
論文 参考訳(メタデータ) (2024-07-02T21:44:22Z) - Example-Based Automatic Migration of Continuous Integration Systems [2.2836654317217326]
継続的インテグレーション(CI)は、コード変更の統合とテストの高速化に広く採用されているプラクティスです。
開発者はしばしば、マトリックスの構築やロギングの改善といった機能を追求して、CIシステム間で移行する。
この移行は、新しいCIシステムとその構文に関する知識が限られているため、集中的かつエラーを起こしやすい。
本稿では,CIシステムの自動マイグレーションのための新しいアプローチとして,CIMigを提案する。
論文 参考訳(メタデータ) (2024-07-02T20:19:21Z) - Can Feedback Enhance Semantic Grounding in Large Vision-Language Models? [61.899791071654654]
本稿では,視覚言語モデル(VLM)が,フィードバックの「受信」によって意味的接地を改善することができるかどうかを検討する。
適切に刺激すれば、VLMは1ステップと反復の両方でフィードバックを活用できる。
検討したすべての設定において、すべてのモデルにまたがる自動フィードバックを用いて、基底精度を一貫して改善することを示す。
論文 参考訳(メタデータ) (2024-04-09T17:59:04Z) - Online Adaptation of Language Models with a Memory of Amortized Contexts [82.02369596879817]
MAC(Memory of Amortized Contexts)は、大規模言語モデルのための効率的かつ効果的なオンライン適応フレームワークである。
MACとMACを組み合わせれば,検索の高速化など,一般的な代替手段の性能が向上することを示す。
論文 参考訳(メタデータ) (2024-03-07T08:34:57Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z) - The Devil is in the Errors: Leveraging Large Language Models for
Fine-grained Machine Translation Evaluation [93.01964988474755]
AutoMQMは,大規模な言語モデルに対して,翻訳におけるエラーの識別と分類を求めるプロンプト技術である。
テキスト内学習と微調整によるラベル付きデータの影響について検討する。
次に, PaLM-2モデルを用いてAutoMQMを評価し, スコアのプロンプトよりも性能が向上することがわかった。
論文 参考訳(メタデータ) (2023-08-14T17:17:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。