論文の概要: GPU Memory Requirement Prediction for Deep Learning Task Based on Bidirectional Gated Recurrent Unit Optimization Transformer
- arxiv url: http://arxiv.org/abs/2510.20985v1
- Date: Thu, 23 Oct 2025 20:20:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.315067
- Title: GPU Memory Requirement Prediction for Deep Learning Task Based on Bidirectional Gated Recurrent Unit Optimization Transformer
- Title(参考訳): 双方向Gated Recurrent Unit Optimization Transformerに基づくディープラーニングタスクのGPUメモリ要求予測
- Authors: Chao Wang, Zhizhao Wen, Ruoxin Zhang, Puyang Xu, Yifan Jiang,
- Abstract要約: 本稿では,双方向ゲートリカレントユニット(BiGRU)を統合し,トランスフォーマーアーキテクチャを最適化するディープラーニングモデルを提案する。
平均絶対誤差(MAE)と決定係数(R2)の指標では、モデルも良好に動作し、結果はバランスよく安定している。
予測精度は従来の機械学習手法に比べて大幅に改善されている。
- 参考スコア(独自算出の注目度): 6.443211386140362
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In response to the increasingly critical demand for accurate prediction of GPU memory resources in deep learning tasks, this paper deeply analyzes the current research status and innovatively proposes a deep learning model that integrates bidirectional gated recurrent units (BiGRU) to optimize the Transformer architecture, aiming to improve the accuracy of memory demand prediction. To verify the effectiveness of the model, a carefully designed comparative experiment was conducted, selecting four representative basic machine learning models: decision tree, random forest, Adaboost, and XGBoost as benchmarks. The detailed experimental results show that the BiGRU Transformer optimization model proposed in this paper exhibits significant advantages in key evaluation indicators: in terms of mean square error (MSE) and root mean square error (RMSE), the model achieves the lowest value among all comparison models, and its predicted results have the smallest deviation from the actual values; In terms of mean absolute error (MAE) and coefficient of determination (R2) indicators, the model also performs well and the results are balanced and stable, with comprehensive predictive performance far exceeding the benchmark machine learning methods compared. In summary, the Transformer model based on bidirectional gated recurrent unit optimization successfully constructed in this study can efficiently and accurately complete GPU memory demand prediction tasks in deep learning tasks, and its prediction accuracy has been significantly improved compared to traditional machine learning methods. This research provides strong technical support and reliable theoretical basis for optimizing resource scheduling and management of deep learning tasks, and improving the utilization efficiency of computing clusters.
- Abstract(参考訳): ディープラーニングタスクにおけるGPUメモリリソースの正確な予測に対する要求がますます高まる中で,本論文では,現在の研究状況を深く分析し,双方向ゲートリカレントユニット(BiGRU)を統合してTransformerアーキテクチャを最適化する深層学習モデルを提案する。
モデルの有効性を検証するため、慎重に設計された比較実験を行い、決定木、ランダムフォレスト、アダブースト、XGBoostの4つの基本的な機械学習モデルをベンチマークとして選択した。
本稿では, 平均二乗誤差 (MSE) とルート平均二乗誤差 (RMSE) において, 平均二乗誤差 (RMSE) において, 平均三乗誤差 (MAE) と決定係数 (R2) との差が最小であり, 平均三乗誤差 (MAE) と決定係数 (R2) の差が最小であり, モデルの性能も良好であり, 予測性能はベンチマーク機械学習手法をはるかに上回った。
要約して,本研究で成功した双方向ゲート再帰単位最適化に基づくトランスフォーマーモデルは,ディープラーニングタスクにおけるGPUメモリ要求予測タスクを効率的かつ正確に完了させることができ,従来の機械学習手法と比較して予測精度が大幅に向上した。
本研究は、ディープラーニングタスクのリソーススケジューリングと管理を最適化し、計算クラスタの利用効率を向上させるための、強力な技術的支援と信頼性のある理論的基盤を提供する。
関連論文リスト
- The Impact of Feature Scaling In Machine Learning: Effects on Regression and Classification Tasks [0.6263680699548958]
本研究は、14の機械学習アルゴリズムと16のデータセットにまたがる12のスケーリングテクニックを体系的に評価することで、機能スケーリングに関する包括的な研究が欠如していることに対処する。
我々は、予測性能(精度、MAE、MSE、R2$など)と計算コスト(トレーニング時間、推論時間、メモリ使用量)への影響を慎重に分析した。
論文 参考訳(メタデータ) (2025-06-09T22:32:51Z) - Self-Boost via Optimal Retraining: An Analysis via Approximate Message Passing [58.52119063742121]
独自の予測と潜在的にノイズの多いラベルを使ってモデルをトレーニングすることは、モデルパフォーマンスを改善するためのよく知られた戦略である。
本稿では,モデルの予測と提供ラベルを最適に組み合わせる方法について論じる。
我々の主な貢献は、現在のモデルの予測と与えられたラベルを組み合わせたベイズ最適集約関数の導出である。
論文 参考訳(メタデータ) (2025-05-21T07:16:44Z) - Target Variable Engineering [0.0]
数値的対象を予測するために訓練された回帰モデルの予測性能と、2項化対象を予測するために訓練された分類器を比較した。
回帰は最適性能に収束するためには、はるかに多くの計算作業を必要とする。
論文 参考訳(メタデータ) (2023-10-13T23:12:21Z) - Learning Active Subspaces and Discovering Important Features with Gaussian Radial Basis Functions Neural Networks [0.0]
モデルの訓練が完了すると抽出できる精度行列のスペクトルに含まれる貴重な情報を示す。
回帰,分類,特徴選択タスクの数値実験を行った。
その結果,提案モデルが競合モデルに比べて魅力的な予測性能が得られるだけでなく,予測性能も向上することが示唆された。
論文 参考訳(メタデータ) (2023-07-11T09:54:30Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。