論文の概要: MPI Implementation Profiling for Better Application Performance
- arxiv url: http://arxiv.org/abs/2402.12203v1
- Date: Mon, 19 Feb 2024 15:07:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 15:58:39.815224
- Title: MPI Implementation Profiling for Better Application Performance
- Title(参考訳): アプリケーションパフォーマンス向上のためのMPI実装プロファイリング
- Authors: Riley Shipley, Garrett Hooten, David Boehme, Derek Schafer, Anthony
Skjellum, Olga Pearce
- Abstract要約: 本稿では,2つの汎用プロファイリング手法と,これらの手法の実用的応用を既存実装に貢献する。
これらの手法を用いてMPI符号の性能欠陥を検出する能力は、通信最適化におけるさらなる研究と開発の可能性を高める。
- 参考スコア(独自算出の注目度): 0.2621434923709917
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: While application profiling has been a mainstay in the HPC community for
years, profiling of MPI and other communication middleware has not received the
same degree of exploration. This paper adds to the discussion of MPI profiling,
contributing two general-purpose profiling methods as well as practical
applications of these methods to an existing implementation. The ability to
detect performance defects in MPI codes using these methods increases the
potential of further research and development in communication optimization.
- Abstract(参考訳): アプリケーションプロファイリングは,長年にわたってHPCコミュニティの主流となっているが,MPIやその他の通信ミドルウェアのプロファイリングは同様の調査を受けていない。
本稿では,MPIプロファイリングの議論をさらに加え,2つの汎用プロファイリング手法と,これらの手法の実用的応用を既存実装に貢献する。
これらの手法を用いてMPI符号の性能欠陥を検出する能力は、通信最適化におけるさらなる研究と開発の可能性を高める。
関連論文リスト
- DOCE: Finding the Sweet Spot for Execution-Based Code Generation [69.5305729627198]
本稿では,候補生成,$n$-best再ランク,最小ベイズリスク(MBR)復号化,自己老化などを含む包括的フレームワークを提案する。
本研究は,実行ベースメソッドの重要性と,実行ベースメソッドと実行フリーメソッドとの差を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T07:10:36Z) - Towards Coarse-to-Fine Evaluation of Inference Efficiency for Large Language Models [95.96734086126469]
大規模言語モデル(LLM)は、ユーザが仕事を達成するのを助けるアシスタントとして機能し、高度なアプリケーションの開発をサポートする。
LLMの幅広い応用にとって、推論効率は重要な問題であり、既存の研究で広く研究されている。
各種コードライブラリの推論性能の粗大な解析を行う。
論文 参考訳(メタデータ) (2024-04-17T15:57:50Z) - MPIrigen: MPI Code Generation through Domain-Specific Language Models [3.5352856644774806]
本研究ではまず,MPIに基づく並列プログラム生成における最先端言語モデルの性能について検討する。
HPCorpusMPI上でMonoCoderを微調整することでMPIベースのプログラム生成のダウンストリームタスクを導入する。
この調整されたソリューションの成功は、並列計算コード生成のための最適化言語モデルにおいて、ドメイン固有の微調整の重要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-14T12:24:21Z) - Federated Multilinear Principal Component Analysis with Applications in Prognostics [1.7811840395202345]
本稿では,FMPCA法を提案する。
複数のユーザが,各ユーザのデータをローカルかつ機密に保ちながら,テンソルデータの次元を共同で削減することができる。
また, 工業用診断学におけるFMPCAの応用を実証した。
論文 参考訳(メタデータ) (2023-12-11T00:46:34Z) - Tuning Pre-trained Model via Moment Probing [62.445281364055795]
本稿では,LP の可能性を探るため,新しい Moment Probing (MP) 法を提案する。
MPは、最終特徴の平均に基づいて線形分類ヘッドを実行する。
当社のMPはLPを著しく上回り、トレーニングコストの低い相手と競争しています。
論文 参考訳(メタデータ) (2023-07-21T04:15:02Z) - Hyperparameters in Reinforcement Learning and How To Tune Them [25.782420501870295]
深層強化学習におけるハイパーパラメータの選択は,エージェントの最終的な性能とサンプル効率に大きな影響を及ぼすことを示す。
我々は,シードのチューニングとテストの分離など,AutoMLから確立されたベストプラクティスを採用することを提案する。
我々は、最先端のHPOツールを、RLアルゴリズムや環境を手作りのツールと比較することで、これをサポートする。
論文 参考訳(メタデータ) (2023-06-02T07:48:18Z) - Multilinear Dirichlet Processes [3.2238887070637805]
本稿では,DDPを構築するための新しい手法であるMultiLinear Dirichlet Processes (MLDP)を提案する。
我々は,様々なアプリケーションを対象とした実単語データセット上でMLDPを評価し,最先端の性能を実現した。
論文 参考訳(メタデータ) (2021-06-16T15:18:14Z) - Semi-On-Policy Training for Sample Efficient Multi-Agent Policy
Gradients [51.749831824106046]
本稿では,オンライン政策グラデーション手法のサンプル非効率性に効果的かつ効率的な手法として,セミ・オン・ポリティ(SOP)トレーニングを導入する。
提案手法は,様々なSMACタスクにおいて,最先端の値ベース手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-04-27T19:37:01Z) - The Surprising Effectiveness of MAPPO in Cooperative, Multi-Agent Games [67.47961797770249]
マルチエージェントPPO(MAPPO)は、集中型値関数を採用するマルチエージェントPPOバリアントである。
MAPPOは,3つの一般的なマルチエージェントテストベッドにおいて,最先端技術に匹敵する性能を実現していることを示す。
論文 参考訳(メタデータ) (2021-03-02T18:59:56Z) - Improving Visual Place Recognition Performance by Maximising
Complementarity [22.37892767050086]
本稿では,最先端VPR手法の相互補完性を初めて体系的に検討する。
それらの組み合わせを識別することで、パフォーマンスが向上する。
結果は、広く使われている10のVPRデータセット上で8つの最先端のVPR手法に対して提示される。
論文 参考訳(メタデータ) (2021-02-16T19:18:33Z) - Implementation Matters in Deep Policy Gradients: A Case Study on PPO and
TRPO [90.90009491366273]
本稿では,2つの一般的なアルゴリズムのケーススタディにより,ディープポリシー勾配アルゴリズムにおけるアルゴリズムの進歩のルーツについて検討する。
具体的には,「コードレベルの最適化」の結果について検討する。
以上の結果から, (a) TRPOに対するPPOの累積報酬のほとんどを担っていることが示され, (b) RL メソッドの動作方法が根本的に変化していることが示唆された。
論文 参考訳(メタデータ) (2020-05-25T16:24:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。