論文の概要: High-Performance Parallel Optimization of the Fish School Behaviour on the Setonix Platform Using OpenMP
- arxiv url: http://arxiv.org/abs/2507.20173v1
- Date: Sun, 27 Jul 2025 08:25:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.16576
- Title: High-Performance Parallel Optimization of the Fish School Behaviour on the Setonix Platform Using OpenMP
- Title(参考訳): OpenMPを用いたセトニックスプラットフォーム上での魚学校行動の高性能並列最適化
- Authors: Haitian Wang, Long Qin,
- Abstract要約: 本稿では,Setonix Supercomputing Platform上でのFish School Behaviour (FSB)アルゴリズムの並列最適化について詳細に検討する。
FSBアルゴリズムは自然の社会的行動パターンにインスパイアされ、反復的で計算集約的な性質のために並列化のための理想的なプラットフォームを提供する。
- 参考スコア(独自算出の注目度): 1.1533029170925908
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents an in-depth investigation into the high-performance parallel optimization of the Fish School Behaviour (FSB) algorithm on the Setonix supercomputing platform using the OpenMP framework. Given the increasing demand for enhanced computational capabilities for complex, large-scale calculations across diverse domains, there's an imperative need for optimized parallel algorithms and computing structures. The FSB algorithm, inspired by nature's social behavior patterns, provides an ideal platform for parallelization due to its iterative and computationally intensive nature. This study leverages the capabilities of the Setonix platform and the OpenMP framework to analyze various aspects of multi-threading, such as thread counts, scheduling strategies, and OpenMP constructs, aiming to discern patterns and strategies that can elevate program performance. Experiments were designed to rigorously test different configurations, and our results not only offer insights for parallel optimization of FSB on Setonix but also provide valuable references for other parallel computational research using OpenMP. Looking forward, other factors, such as cache behavior and thread scheduling strategies at micro and macro levels, hold potential for further exploration and optimization.
- Abstract(参考訳): 本稿では,OpenMPフレームワークを用いたSetonixスーパーコンピュータプラットフォーム上でのFish School Behaviour(FSB)アルゴリズムの並列最適化について,詳細な検討を行う。
多様な領域にわたる複雑で大規模な計算能力の強化に対する需要が高まっているため、最適化された並列アルゴリズムと計算構造が必須である。
FSBアルゴリズムは自然の社会的行動パターンにインスパイアされ、反復的で計算集約的な性質のために並列化のための理想的なプラットフォームを提供する。
本研究では、SetonixプラットフォームとOpenMPフレームワークの機能を活用し、スレッド数、スケジューリング戦略、OpenMP構造といったマルチスレッドのさまざまな側面を分析し、プログラムのパフォーマンスを向上させるパターンや戦略を識別することを目的とする。
実験は、異なる構成を厳密にテストするために設計され、その結果は、Setonix上のFSBの並列最適化のための洞察を提供するだけでなく、OpenMPを用いた他の並列計算研究に有用な参照を提供する。
キャッシュの挙動やマイクロおよびマクロレベルでのスレッドスケジューリング戦略などの他の要因は、さらなる探索と最適化の可能性を秘めている。
関連論文リスト
- A Comparative Study of OpenMP Scheduling Algorithm Selection Strategies [4.068270792140994]
我々は,OpenMPにおけるスケジューリングアルゴリズムの選択のための学習に基づくアプローチを提案し,評価する。
その結果,RL法は高い性能のスケジューリング決定を学習できることがわかった。
このアプローチはMPIベースのプログラムにも拡張可能で、並列性の複数のレベルにまたがるスケジューリング決定の最適化を可能にする。
論文 参考訳(メタデータ) (2025-07-27T15:10:30Z) - APB: Accelerating Distributed Long-Context Inference by Passing Compressed Context Blocks across GPUs [81.5049387116454]
我々は、効率的な長文推論フレームワークであるAPBを紹介する。
APBはプリフィル速度を高めるためにマルチホスト近似アテンションを使用する。
APBはFlashAttn、RingAttn、StarAttnと比較して最大9.2x、4.2x、1.6xの速度を実現している。
論文 参考訳(メタデータ) (2025-02-17T17:59:56Z) - EPS-MoE: Expert Pipeline Scheduler for Cost-Efficient MoE Inference [49.94169109038806]
本稿では,既存の並列処理方式を超越したMoE用パイプラインスケジューラであるEPS-MoEを紹介する。
その結果,既存の並列推論手法と比較して,プリフィルスループットは52.4%向上した。
論文 参考訳(メタデータ) (2024-10-16T05:17:49Z) - Hybrid programming-model strategies for GPU offloading of electronic
structure calculation kernels [2.4898174182192974]
PROGRESSは電子構造解析のためのライブラリである。
電子構造カーネルに対する線形代数演算を実装している。
本稿では,これらの実装における汎用戦略について述べる。
論文 参考訳(メタデータ) (2024-01-24T19:38:01Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - Performance Optimization using Multimodal Modeling and Heterogeneous GNN [1.304892050913381]
本稿では,複数のタスクに適応可能な並列コード領域のチューニング手法を提案する。
本稿では、IRに基づくプログラミングモデルを分析し、タスク固有の性能最適化を行う。
実験の結果,このマルチモーダル学習に基づくアプローチは,すべての実験において最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-25T04:27:43Z) - ParaGraph: Weighted Graph Representation for Performance Optimization of
HPC Kernels [1.304892050913381]
抽象構文木を拡張した並列アプリケーションのためのグラフベースの新しいプログラム表現を提案する。
提案した表現は,OpenMPコード領域のランタイムを予測するために,グラフニューラルネットワーク(GNN)をトレーニングすることで評価する。
その結果,本手法は実効性があり,実行時予測では 0.004 から 0.01 に RMSE を正規化していることがわかった。
論文 参考訳(メタデータ) (2023-04-07T05:52:59Z) - Machine Learning-Driven Adaptive OpenMP For Portable Performance on
Heterogeneous Systems [1.885335997132172]
プログラムを新しい異種プラットフォームに適応させるのは面倒で、開発者は手動で実行パラメータの広大なスペースを探索する必要がある。
本稿では,機械学習による自律的適応のためのOpenMPの拡張を提案する。
私たちのソリューションには、新しい言語構成、コンパイラ変換、ランタイムサポートのセットが含まれています。
論文 参考訳(メタデータ) (2023-03-15T18:37:18Z) - Partitioning Distributed Compute Jobs with Reinforcement Learning and
Graph Neural Networks [58.720142291102135]
大規模な機械学習モデルは、幅広い分野に進歩をもたらしている。
これらのモデルの多くは、単一のマシンでトレーニングするには大きすぎるため、複数のデバイスに分散する必要がある。
スループットやブロッキングレートといったユーザクリティカルな指標に対して,並列化の最大化が準最適であることを示す。
論文 参考訳(メタデータ) (2023-01-31T17:41:07Z) - MPLP++: Fast, Parallel Dual Block-Coordinate Ascent for Dense Graphical
Models [96.1052289276254]
この研究は、人気のあるDual Block-Coordinate Ascent原則に基づく新しいMAP-solverを導入している。
驚いたことに、性能の低い解法に小さな変更を加えることで、既存の解法を大きなマージンで大幅に上回る新しい解法MPLP++を導出します。
論文 参考訳(メタデータ) (2020-04-16T16:20:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。