論文の概要: Performance Evaluation of Bitstring Representations in a Linear Genetic Programming Framework
- arxiv url: http://arxiv.org/abs/2511.02897v1
- Date: Tue, 04 Nov 2025 16:40:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.203249
- Title: Performance Evaluation of Bitstring Representations in a Linear Genetic Programming Framework
- Title(参考訳): 線形遺伝的プログラミングフレームワークにおけるビットストリング表現の性能評価
- Authors: Clyde Meli, Vitezslav Nezval, Zuzana Kominkova Oplatkova, Victor Buttigieg, Anthony Spiteri Staines,
- Abstract要約: この作業では、C++:::bitset、 boost::dynamic_bitset の3つのビットストリング実装と、カスタムのダイレクト実装を比較した。
それらの性能は線形遺伝的プログラミングシステム内での連結の文脈でベンチマークされる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Different bitstring representations can yield varying computational performance. This work compares three bitstring implementations in C++: std::bitset, boost::dynamic_bitset, and a custom direct implementation. Their performance is benchmarked in the context of concatenation within a Linear Genetic Programming system. Benchmarks were conducted on three platforms (macOS, Linux, and Windows MSYS2) to assess platform specific performance variations. The results show that the custom direct implementation delivers the fastest performance on Linux and Windows, while std::bitset performs best on macOS. Although consistently slower, boost::dynamic_bitset remains a viable and flexible option. These findings highlight the influence of compiler optimisations and system architecture on performance, providing practical guidance for selecting the optimal method based on platform and application requirements.
- Abstract(参考訳): 異なるビットストリング表現は、様々な計算性能をもたらす。
std::bitset, boost::dynamic_bitset, カスタムダイレクト実装の3つのビットストリング実装を比較した。
それらの性能は線形遺伝的プログラミングシステム内での連結の文脈でベンチマークされる。
ベンチマークは、プラットフォーム固有のパフォーマンスバリエーションを評価するために、3つのプラットフォーム(macOS、Linux、Windows MSYS2)で実施された。
結果は、カスタムのダイレクト実装がLinuxとWindowsで最速のパフォーマンスを提供するのに対して、std::bitsetはmacOSで最高であることを示している。
boost::dynamic_bitsetは一貫して遅いが、実行可能でフレキシブルなオプションである。
これらの知見は,コンパイラの最適化とシステムアーキテクチャがパフォーマンスに与える影響を強調し,プラットフォームおよびアプリケーション要件に基づいて最適なメソッドを選択するための実践的なガイダンスを提供する。
関連論文リスト
- Compiling by Proving: Language-Agnostic Automatic Optimization from Formal Semantics [0.0]
シンボル実行とグラフ構造のコンパイルにより全パス到達可能性証明を構築する。
我々は、多くの意味的な書き直しを単一のルールに集約し、建設による正確性を維持します。
我々はこれを言語に依存しないKフレームワークの拡張として実装する。
論文 参考訳(メタデータ) (2025-09-26T02:49:08Z) - INR-Arch: A Dataflow Architecture and Compiler for Arbitrary-Order
Gradient Computations in Implicit Neural Representation Processing [66.00729477511219]
計算グラフとして表される関数を考えると、従来のアーキテクチャはn階勾配を効率的に計算する上で困難に直面している。
InR-Archは,n階勾配の計算グラフをハードウェア最適化データフローアーキテクチャに変換するフレームワークである。
1.8-4.8x と 1.5-3.6x の高速化を CPU と GPU のベースラインと比較した結果を示す。
論文 参考訳(メタデータ) (2023-08-11T04:24:39Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - Learning Performance-Improving Code Edits [107.21538852090208]
本稿では,大規模言語モデル(LLM)を高レベルプログラム最適化に適用するためのフレームワークを提案する。
まず、競争力のある77,000以上のC++プログラミングサブミッションペアによる、人間のプログラマによるパフォーマンス改善編集のデータセットをキュレートする。
提案手法は,検索をベースとした少数ショットプロンプトとチェーン・オブ・シンクレットを提案し,その微調整には,自己再生に基づく性能条件付き生成と合成データ拡張が含まれる。
論文 参考訳(メタデータ) (2023-02-15T18:59:21Z) - Learning to Superoptimize Real-world Programs [79.4140991035247]
本稿では,ニューラルシークエンス・ツー・シーケンス・モデルを用いて,実世界のプログラムを最適化するフレームワークを提案する。
我々は、x86-64アセンブリでオープンソースプロジェクトから抽出された25万以上の実世界の関数からなるデータセットであるBig Assemblyベンチマークを紹介した。
論文 参考訳(メタデータ) (2021-09-28T05:33:21Z) - Autotuning PolyBench Benchmarks with LLVM Clang/Polly Loop Optimization
Pragmas Using Bayesian Optimization [0.6583716093321499]
オートチューニング(Autotuning)は、カーネルやアプリケーションの実装/設定が可能な検索スペースを探索するアプローチである。
ベイズ最適化を利用してパラメータ空間探索を行う自動チューニングフレームワークを開発した。
論文 参考訳(メタデータ) (2020-10-15T22:09:42Z) - Static Neural Compiler Optimization via Deep Reinforcement Learning [1.458855293397494]
本稿では,位相整合問題に対する深層強化学習手法を用いる。
LLVMのO3シークエンスを構成するサブシーケンスを用いて、エージェントはトレーニングに使用するソースコードのセット上でO3シークエンスより優れていることを学習する。
我々は、我々のアプローチを用いて訓練されたモデルは、ニューラル最適化エージェントとして現代のコンパイラに統合できると考えている。
論文 参考訳(メタデータ) (2020-08-20T13:16:29Z) - Flexible numerical optimization with ensmallen [15.78308411537254]
本報告では,数値最適化ライブラリの小型化について紹介する。
このライブラリは、任意のユーザ供給関数を数学的に最適化するための、高速で柔軟なC++フレームワークを提供する。
論文 参考訳(メタデータ) (2020-03-09T12:57:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。