論文の概要: BYOS: Knowledge-driven Large Language Models Bring Your Own Operating System More Excellent
- arxiv url: http://arxiv.org/abs/2503.09663v1
- Date: Wed, 12 Mar 2025 15:50:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:53:45.898985
- Title: BYOS: Knowledge-driven Large Language Models Bring Your Own Operating System More Excellent
- Title(参考訳): BYOS: 知識駆動型大規模言語モデルによって、独自のオペレーティングシステムがより優れたものになる
- Authors: Hongyu Lin, Yuchen Li, Haoran Luo, Kaichun Yao, Libo Zhang, Mingjie Xing, Yanjun Wu,
- Abstract要約: BYOSはLarge Language Models (LLM) をベースとしたフレームワークで、カーネル設定をさまざまなユーザ要求に合わせてカスタマイズする。
OS指向のDual-layer Knowledge Graph(OD-KG)とそれに対応する推論戦略を統合することで、BYOSはカーネル構成のカスタマイズ、コスト効率、便利な生成を可能にした。
実験の結果、BYOSによって構成されたカーネルはデフォルトのベンダー構成のカーネルを7.1%から155.4%上回った。
- 参考スコア(独自算出の注目度): 32.81416809245337
- License:
- Abstract: Kernel configurations play an important role in the performance of Operating System (OS). However, with the rapid iteration of OS, finding the proper configurations that meet specific requirements can be challenging, which can be primarily attributed to the default kernel provided by vendors does not take the requirements of specific workloads into account, and the heavyweight tuning process cannot catch up with the rapid evolving pace of the kernel. To address these challenges, we propose BYOS, a novel framework powered by Large Language Models (LLMs) to customize kernel configurations for diverse user requirements. By integrating OS-oriented Dual-layer Knowledge Graph (OD-KG) and corresponding reasoning strategy, BYOS enhanced the LLM's understanding of the characteristics and capabilities of OS, thus enabling customized, cost-effective, and convenient generation of kernel configurations. Experiments show that the kernels configured by BYOS outperform the default vendor-configured kernels by 7.1% to 155.4%, demonstrating the effectiveness and efficiency of BYOS in customizing kernel configurations. Our code is available at https://github.com/LHY-24/BYOS.
- Abstract(参考訳): カーネル構成はオペレーティングシステム(OS)のパフォーマンスにおいて重要な役割を果たす。
しかし、OSの迅速なイテレーションでは、特定の要件を満たす適切な構成を見つけることは困難であり、これは主にベンダーが提供するデフォルトカーネルが特定のワークロードの要求を考慮に入れておらず、ヘビーウェイトなチューニングプロセスがカーネルの急速な進化ペースに追いつくことができないためである。
このような課題に対処するため,我々はLarge Language Models (LLM) を利用した新しいフレームワーク BYOS を提案する。
OS指向のデュアルレイヤー知識グラフ(OD-KG)とそれに対応する推論戦略を統合することで、BYOSはLLMのOSの特性と能力の理解を強化し、カスタマイズ、コスト効率、カーネル構成の便利な生成を可能にした。
実験の結果、BYOSによって構成されたカーネルはデフォルトのベンダー構成のカーネルを7.1%から155.4%上回り、カーネル構成のカスタマイズにおけるBYOSの有効性と効率性を示している。
私たちのコードはhttps://github.com/LHY-24/BYOSで利用可能です。
関連論文リスト
- Liger Kernel: Efficient Triton Kernels for LLM Training [6.373771349397682]
大規模言語モデル(LLM)を大規模に効果的に訓練することは、ますます増大する計算要求によって引き起こされる、恐ろしい挑戦となる。
LLMトレーニング用に開発されたTritonカーネルのオープンソースセットであるLiger- Kernelを紹介する。
カーネル操作の融合や入力チャンキングといったカーネル最適化技術により、カーネルはトレーニングのスループットが平均20%向上し、GPUメモリ使用量が60%削減された。
論文 参考訳(メタデータ) (2024-10-14T18:17:01Z) - Cognitive Kernel: An Open-source Agent System towards Generalist Autopilots [54.55088169443828]
我々は,ジェネラリストオートパイロットの目標に向けて,オープンソースのエージェントシステムであるCognitive Kernelを紹介する。
主にユーザーに依存して必要な状態情報を提供する自動操縦システムとは異なり、自動操縦システムは独立してタスクを完了しなければならない。
これを実現するために、自動操縦システムでは、ユーザの意図を理解し、様々な現実世界の情報源から必要な情報を積極的に収集し、賢明な判断をする必要がある。
論文 参考訳(メタデータ) (2024-09-16T13:39:05Z) - Optimal Kernel Tuning Parameter Prediction using Deep Sequence Models [0.44998333629984877]
本稿では,深部列列列モデルを用いて,計算カーネルを管理する最適チューニングパラメータを予測する手法を提案する。
提案アルゴリズムは、AMD機械学習プリミティブライブラリであるMIOpenにおいて、様々な畳み込みカーネル上で90%以上の精度を達成することができる。
論文 参考訳(メタデータ) (2024-04-15T22:25:54Z) - KernelGPT: Enhanced Kernel Fuzzing via Large Language Models [8.77369393651381]
我々はLarge Language Models (LLM) を通じてsyscall仕様を自動合成する最初のアプローチである KernelGPT を提案する。
以上の結果から, KernelGPTは最新の技術よりも, より新しい, 有効な仕様を作成できることを示す。
論文 参考訳(メタデータ) (2023-12-31T18:47:33Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - Empowering parameter-efficient transfer learning by recognizing the
kernel structure in self-attention [53.72897232951918]
本稿では,カーネル構造を自己アテンションに利用して,可変パラメータの割り当てを誘導するアダプタを提案する。
提案するアダプタは,既存のベースラインの性能向上や性能向上を図っている。
論文 参考訳(メタデータ) (2022-05-07T20:52:54Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - Flow-based Kernel Prior with Application to Blind Super-Resolution [143.21527713002354]
カーネル推定は一般にブラインド画像超解像(SR)の鍵となる問題の一つである
本稿では,カーネルモデリングのための正規化フローベースカーネルプリレント(fkp)を提案する。
合成および実世界の画像の実験により、提案したFKPがカーネル推定精度を大幅に向上することを示した。
論文 参考訳(メタデータ) (2021-03-29T22:37:06Z) - Performance portability through machine learning guided kernel selection
in SYCL libraries [0.0]
汎用計算ライブラリは、ユーザが提供するすべての入力とパラメータに対応できなければならない。
機械学習の手法は、どちらの問題にも対処できる。
新しいハードウェアや問題のためにプロセスをチューニングしても、開発者の努力や専門知識は必要ない。
論文 参考訳(メタデータ) (2020-08-30T11:44:37Z) - Sapphire: Automatic Configuration Recommendation for Distributed Storage
Systems [11.713288567936875]
チューニングパラメータは、大幅なパフォーマンス向上を提供するが、深い経験と専門知識を必要とする難しいタスクである。
最適な構成を推奨するための自動シミュレーションベースのアプローチであるSapphireを提案する。
その結果、デフォルト設定に比べて、SapphireはCephのパフォーマンスを2.2倍に大幅に向上させた。
論文 参考訳(メタデータ) (2020-07-07T06:17:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。