論文の概要: Linux Kernel Configurations at Scale: A Dataset for Performance and Evolution Analysis
- arxiv url: http://arxiv.org/abs/2505.07487v1
- Date: Mon, 12 May 2025 12:19:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.370959
- Title: Linux Kernel Configurations at Scale: A Dataset for Performance and Evolution Analysis
- Title(参考訳): Linuxカーネルのスケール構成:パフォーマンスと進化分析のためのデータセット
- Authors: Heraldo Borges, Juliana Alves Pereira, Djamel Eddine Khelladi, Mathieu Acher,
- Abstract要約: いくつかのカーネルリリースにまたがるカーネル構成のコレクションであるLinuxDataを紹介します。
このデータセットは、コンパイル結果とバイナリサイズを体系的にラベル付けした24万以上のカーネル構成で構成されている。
データセットがOpenMLを介して簡単にアクセス可能になった方法を説明し、わずか数行のPythonコードを使ってどのように活用できるかを説明する。
- 参考スコア(独自算出の注目度): 5.172308460024373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Configuring the Linux kernel to meet specific requirements, such as binary size, is highly challenging due to its immense complexity-with over 15,000 interdependent options evolving rapidly across different versions. Although several studies have explored sampling strategies and machine learning methods to understand and predict the impact of configuration options, the literature still lacks a comprehensive and large-scale dataset encompassing multiple kernel versions along with detailed quantitative measurements. To bridge this gap, we introduce LinuxData, an accessible collection of kernel configurations spanning several kernel releases, specifically from versions 4.13 to 5.8. This dataset, gathered through automated tools and build processes, comprises over 240,000 kernel configurations systematically labeled with compilation outcomes and binary sizes. By providing detailed records of configuration evolution and capturing the intricate interplay among kernel options, our dataset enables innovative research in feature subset selection, prediction models based on machine learning, and transfer learning across kernel versions. Throughout this paper, we describe how the dataset has been made easily accessible via OpenML and illustrate how it can be leveraged using only a few lines of Python code to evaluate AI-based techniques, such as supervised machine learning. We anticipate that this dataset will significantly enhance reproducibility and foster new insights into configuration-space analysis at a scale that presents unique opportunities and inherent challenges, thereby advancing our understanding of the Linux kernel's configurability and evolution.
- Abstract(参考訳): バイナリサイズなどの特定の要件を満たすようにLinuxカーネルを設定するのは、その膨大な複雑さのため、さまざまなバージョンで急速に進化する15,000以上の相互依存オプションのため、非常に難しい。
いくつかの研究では、構成オプションの影響を理解し予測するためのサンプリング戦略や機械学習手法について検討しているが、詳細な定量的測定とともに、複数のカーネルバージョンを含む包括的で大規模なデータセットはいまだに存在しない。
このギャップを埋めるために、LinuxDataを紹介します。LinuxDataは、いくつかのカーネルリリース、特にバージョン4.13から5.8までの、アクセス可能なカーネル構成のコレクションです。
このデータセットは自動ツールとビルドプロセスを通じて収集され、コンパイル結果とバイナリサイズで体系的にラベル付けされた24万以上のカーネル構成で構成されている。
カーネルオプション間の複雑な相互作用を詳細に記録し、設定の進化の詳細な記録を提供することにより、我々のデータセットは、機能サブセットの選択、機械学習に基づく予測モデル、カーネルバージョン間の転送学習における革新的な研究を可能にする。
本稿では、データセットがOpenMLを介して容易にアクセス可能になった方法を説明し、数行のPythonコードを使用して、教師付き機械学習などのAIベースの技術を評価する方法について説明する。
我々は、このデータセットが再現性を大幅に向上し、ユニークな機会と固有の課題を示すスケールで構成空間分析に関する新たな洞察を育み、Linuxカーネルの設定可能性と進化に対する理解を深めることを期待している。
関連論文リスト
- Supervised Multiple Kernel Learning approaches for multi-omics data integration [1.3032276477872158]
マルチカーネル学習(MKL)は、マルチオミクス入力の多様な性質を考える上で、柔軟で有効なアプローチであることが示されている。
我々は、異なるカーネル融合戦略に基づく新しいMKLアプローチを提供する。
その結果、MKLベースのモデルは、より複雑で最先端の教師付きマルチオミクス積分アプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-03-27T08:48:16Z) - EvoX: A Distributed GPU-accelerated Framework for Scalable Evolutionary
Computation [40.71953374838183]
EvoXは、ECアルゴリズムの自動化、分散、均一な実行に適したコンピューティングフレームワークである。
EvoXの中核には、並列化可能なECアルゴリズムの開発を合理化するユニークなプログラミングモデルがある。
EvoXは、数十の数値テスト機能から数百の強化学習タスクまで、さまざまなベンチマーク問題に対する包括的なサポートを提供する。
論文 参考訳(メタデータ) (2023-01-29T15:00:16Z) - Convolutional Learning on Multigraphs [153.20329791008095]
我々は、多グラフ上の畳み込み情報処理を開発し、畳み込み多グラフニューラルネットワーク(MGNN)を導入する。
情報拡散の複雑なダイナミクスを多グラフのエッジのクラス間で捉えるために、畳み込み信号処理モデルを定式化する。
我々は,計算複雑性を低減するため,サンプリング手順を含むマルチグラフ学習アーキテクチャを開発した。
導入されたアーキテクチャは、最適な無線リソース割り当てとヘイトスピーチローカライゼーションタスクに適用され、従来のグラフニューラルネットワークよりも優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2022-09-23T00:33:04Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Kernel Continual Learning [117.79080100313722]
カーネル連続学習は、破滅的な忘れ事に取り組むための、シンプルだが効果的な連続学習の変種である。
エピソードメモリユニットは、カーネルリッジ回帰に基づいてタスク固有の分類器を学ぶために、各タスクのサンプルのサブセットを格納する。
タスク毎にデータ駆動カーネルを学ぶための変動ランダム機能。
論文 参考訳(メタデータ) (2021-07-12T22:09:30Z) - Learning Compositional Sparse Gaussian Processes with a Shrinkage Prior [26.52863547394537]
本稿では,カーネル選択のスパーシティをホースシュープリアーで処理することにより,カーネル構成を学習するための新しい確率論的アルゴリズムを提案する。
本モデルは,計算時間を大幅に削減した時系列特性をキャプチャし,実世界のデータセット上での競合回帰性能を有する。
論文 参考訳(メタデータ) (2020-12-21T13:41:15Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z) - Towards automated kernel selection in machine learning systems: A SYCL
case study [0.0]
本稿では,ライブラリに高性能なSYCLカーネルをデプロイするケーススタディにおいて,機械学習を用いてカーネルの選択を行う。
自動チューニングと機械学習を組み合わせることで、これらのカーネル選択プロセスは、新しいハードウェアで高いパフォーマンスを達成するための開発者の努力をほとんど必要とせずにデプロイできる。
論文 参考訳(メタデータ) (2020-03-15T11:23:36Z) - PolyScientist: Automatic Loop Transformations Combined with Microkernels
for Optimization of Deep Learning Primitives [55.79741270235602]
深層学習カーネル開発のためのハイブリッドソリューションを開発する。
我々は、高度な多面体技術を用いて、パフォーマンスのために外部ループを自動的に調整する。
論文 参考訳(メタデータ) (2020-02-06T08:02:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。