論文の概要: Improving Slow Transfer Predictions: Generative Methods Compared
- arxiv url: http://arxiv.org/abs/2512.14522v1
- Date: Tue, 16 Dec 2025 15:55:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.774617
- Title: Improving Slow Transfer Predictions: Generative Methods Compared
- Title(参考訳): スロー転送予測の改善:生成法の比較
- Authors: Jacob Taegon Kim, Alex Sim, Kesheng Wu, Jinoh Kim,
- Abstract要約: 本研究は,性能予測の精度を高めるために,クラス不均衡問題に対処することに焦点を当てる。
従来のオーバーサンプリング手法や生成手法など,様々な拡張戦略を分析・比較する。
我々は、CTGANのような最も高度な技術でさえ、単純な階層化サンプリングよりも大幅に改善されないと結論付けた。
- 参考スコア(独自算出の注目度): 0.33132106391262933
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Monitoring data transfer performance is a crucial task in scientific computing networks. By predicting performance early in the communication phase, potentially sluggish transfers can be identified and selectively monitored, optimizing network usage and overall performance. A key bottleneck to improving the predictive power of machine learning (ML) models in this context is the issue of class imbalance. This project focuses on addressing the class imbalance problem to enhance the accuracy of performance predictions. In this study, we analyze and compare various augmentation strategies, including traditional oversampling methods and generative techniques. Additionally, we adjust the class imbalance ratios in training datasets to evaluate their impact on model performance. While augmentation may improve performance, as the imbalance ratio increases, the performance does not significantly improve. We conclude that even the most advanced technique, such as CTGAN, does not significantly improve over simple stratified sampling.
- Abstract(参考訳): データ転送性能のモニタリングは、科学計算ネットワークにおいて重要な課題である。
通信フェーズの早い段階での性能を予測することにより、ネットワーク使用率と全体的なパフォーマンスを最適化し、潜在的に不安定な転送を識別し、選択的に監視することができる。
この文脈で機械学習(ML)モデルの予測能力を改善するための重要なボトルネックは、クラス不均衡の問題である。
本研究は,性能予測の精度を高めるために,クラス不均衡問題に対処することに焦点を当てる。
本研究では,従来のオーバーサンプリング手法や生成手法など,様々な拡張戦略を分析・比較する。
さらに、トレーニングデータセットのクラス不均衡比を調整し、モデル性能への影響を評価する。
増大により性能が向上するが、不均衡比が増大するにつれて性能は著しく向上しない。
我々は、CTGANのような最も先進的な技術でさえ、単純な階層化サンプリングよりも大幅に改善されないと結論付けた。
関連論文リスト
- Layer-Aware Influence for Online Data Valuation Estimation [32.294500546369136]
データ中心学習は、パフォーマンスを高めるために高品質なトレーニングサンプルのキュレーションを強調する。
中心的な問題は、トレーニングサンプルの影響を効率的に見積もることである。
我々は、損失から出力への勾配のみを必要とする層認識型オンライン推定器を開発した。
論文 参考訳(メタデータ) (2025-10-14T15:34:22Z) - Dynamic Loss-Based Sample Reweighting for Improved Large Language Model Pretraining [55.262510814326035]
既存のリウェイト戦略は主にグループレベルのデータの重要性に焦点を当てている。
動的・インスタンスレベルのデータ再重み付けのための新しいアルゴリズムを提案する。
当社のフレームワークでは,冗長データや非形式データを優先的に再重み付けする戦略を考案することが可能です。
論文 参考訳(メタデータ) (2025-02-10T17:57:15Z) - Evaluating the Impact of Data Augmentation on Predictive Model Performance [0.05624791703748109]
本稿では,データ拡張手法と予測性能への影響を体系的に比較する。
21種類の増幅法のうち、SMOTE-ENNサンプリングが最も優れ、平均AUCが0.01向上した。
いくつかの拡張技術は、予測性能を著しく低下させたり、ランダムな確率に関する性能変動を増大させたりした。
論文 参考訳(メタデータ) (2024-12-03T03:03:04Z) - Optimizing importance weighting in the presence of sub-population shifts [0.0]
トレーニングデータとテストデータの間の分散シフトは、機械学習モデルの性能を著しく損なう可能性がある。
トレーニングデータの有限標本サイズによる推定モデルのばらつきの増大を無視するため,既存の重み付けは準最適であると主張する。
重みとモデルパラメータを同時に最適化する二段階最適化手法を提案する。
論文 参考訳(メタデータ) (2024-10-18T09:21:10Z) - Forecast-PEFT: Parameter-Efficient Fine-Tuning for Pre-trained Motion Forecasting Models [68.23649978697027]
Forecast-PEFTは、モデルのパラメータの大部分を凍結し、新しく導入されたプロンプトとアダプタの調整に集中する微調整戦略である。
実験の結果,Forecast-PEFTは動作予測タスクにおいて従来のフルチューニング手法よりも優れていた。
Forecast-FTは予測性能をさらに改善し、従来のベースライン法よりも最大9.6%向上した。
論文 参考訳(メタデータ) (2024-07-28T19:18:59Z) - Improvement of Applicability in Student Performance Prediction Based on Transfer Learning [2.3290007848431955]
本研究では,様々な分布を持つデータセットの転送学習手法を用いて,予測精度を向上させる手法を提案する。
モデルは、その一般化能力と予測精度を高めるために訓練され、評価された。
実験により, この手法は根平均角誤差 (RMSE) と平均絶対誤差 (MAE) の低減に優れていることが示された。
結果は、より多くのレイヤを凍結することで、複雑でノイズの多いデータのパフォーマンスが向上することを示した。
論文 参考訳(メタデータ) (2024-06-01T13:09:05Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - Towards Compute-Optimal Transfer Learning [82.88829463290041]
我々は、事前訓練されたモデルのゼロショット構造化プルーニングにより、性能を最小限に抑えて計算効率を向上させることができると主張している。
その結果,事前訓練されたモデルの畳み込み畳み込みフィルタは,低計算条件下で20%以上の性能向上をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-25T21:49:09Z) - Revisiting Consistency Regularization for Semi-Supervised Learning [80.28461584135967]
そこで我々は,FeatDistLossというシンプルな手法により,一貫性の規則化を改良したフレームワークを提案する。
実験結果から,本モデルは様々なデータセットや設定のための新しい技術状態を定義する。
論文 参考訳(メタデータ) (2021-12-10T20:46:13Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。