論文の概要: Heart Disease Prediction: A Comparative Study of Optimisers Performance in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2509.08499v1
- Date: Wed, 10 Sep 2025 11:15:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.403946
- Title: Heart Disease Prediction: A Comparative Study of Optimisers Performance in Deep Neural Networks
- Title(参考訳): 心疾患予測 : 深部神経回路におけるオプティマイザ性能の比較検討
- Authors: Chisom Chibuike, Adeyinka Ogunsanya,
- Abstract要約: そこで我々は,Kaggleの心臓病データセットを用いて,シンプルな多層パーセプトロンモデルのトレーニングにおける10種類のアプローチの性能を比較した。
我々は、一貫したトレーニングパラダイムを設定し、収束速度や安定性などのメトリクスに基づいてメトリクスを評価する。
すべてのメトリクスに対して、重要なメトリクス間でバランスのとれたパフォーマンスを提供するため、この心臓病予測タスクに最も効果的であるようにRMSPropを選択しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimization has been an important factor and topic of interest in training deep learning models, yet less attention has been given to how we select the optimizers we use to train these models. Hence, there is a need to dive deeper into how we select the optimizers we use for training and the metrics that determine this selection. In this work, we compare the performance of 10 different optimizers in training a simple Multi-layer Perceptron model using a heart disease dataset from Kaggle. We set up a consistent training paradigm and evaluate the optimizers based on metrics such as convergence speed and stability. We also include some other Machine Learning Evaluation metrics such as AUC, Precision, and Recall, which are central metrics to classification problems. Our results show that there are trade-offs between convergence speed and stability, as optimizers like Adagrad and Adadelta, which are more stable, took longer time to converge. Across all our metrics, we chose RMSProp to be the most effective optimizer for this heart disease prediction task because it offered a balanced performance across key metrics. It achieved a precision of 0.765, a recall of 0.827, and an AUC of 0.841, along with faster training time. However, it was not the most stable. We recommend that, in less compute-constrained environments, this method of choosing optimizers through a thorough evaluation should be adopted to increase the scientific nature and performance in training deep learning models.
- Abstract(参考訳): 最適化はディープラーニングモデルのトレーニングにおいて重要な要素であり、関心の的となっているが、これらのモデルのトレーニングに使用する最適化方法にはあまり関心が向けられていない。
したがって、トレーニングに使用するオプティマイザの選択方法や、この選択を決定するメトリクスについて、詳しく知る必要があります。
本研究では,Kaggleの心臓病データセットを用いて,シンプルな多層パーセプトロンモデルのトレーニングにおける10種類のオプティマイザの性能を比較した。
我々は一貫したトレーニングパラダイムを設定し、収束速度や安定性といった指標に基づいて最適化手法を評価した。
また、分類問題の中心となるAUC、Precision、Recallなどの機械学習評価指標も含んでいます。
より安定なAdagradやAdadeltaのようなオプティマイザは収束に時間がかかるため、収束速度と安定性の間にはトレードオフがある。
すべてのメトリクスに対して、重要なメトリクス間でバランスの取れたパフォーマンスを提供するため、私たちは、この心臓病予測タスクの最も効果的なオプティマイザとしてRMSPropを選択しました。
精度は0.765、リコールは0.827、AUCは0.841、訓練時間も速い。
しかし、最も安定してはいなかった。
計算制約の少ない環境では、深層学習モデルの学習における科学的性質と性能を高めるために、徹底的な評価を通じて最適化者を選択する方法を採用することを推奨する。
関連論文リスト
- Fantastic Pretraining Optimizers and Where to Find Them [59.56075036649332]
AdamWは長い間、言語モデルの事前訓練において支配的な勾配だった。
行列ベースの行列の高速化はモデルスケールに逆比例する。
論文 参考訳(メタデータ) (2025-09-02T07:43:22Z) - Optimizers Qualitatively Alter Solutions And We Should Leverage This [62.662640460717476]
ディープニューラルネットワーク(DNN)は、SGDのようなローカル情報のみを使用する場合、損失のグローバルな最小限に収束することを保証できない。
コミュニティは、既存のメソッドのバイアスを理解すること、また、ソリューションの特定の特性を誘発する明示的な意図で、新しいDNNを構築することを目的としている。
論文 参考訳(メタデータ) (2025-07-16T13:33:31Z) - Understanding Optimization in Deep Learning with Central Flows [53.66160508990508]
RMSの暗黙的な振る舞いは、微分方程式の「中央流:」によって明示的に捉えられることを示す。
これらのフローは、汎用ニューラルネットワークの長期最適化軌道を経験的に予測できることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:13Z) - CoRe Optimizer: An All-in-One Solution for Machine Learning [0.0]
連続レジリエント収束(CoRe)は、他の最先端の1次勾配に基づく収束アルゴリズムと比較して優れた性能を示した。
CoReは、調査されたすべてのアプリケーションにおいて、最高の、または競争的なパフォーマンスを得る。
論文 参考訳(メタデータ) (2023-07-28T16:48:42Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - A Closer Look at Learned Optimization: Stability, Robustness, and
Inductive Biases [44.01339030872185]
ブラックボックスは、しばしば、メタトレーニングセットのタスクと異なり、安定性と一般化に苦しむ。
最適化アルゴリズムの帰納バイアスと安定性特性について検討し、結果として得られる知見をブラックボックスの帰納バイアスの設計に適用する。
私たちはさまざまなニューラルネットワークトレーニングタスクを学び、そこで学んだ技術の現状を上回ります。
論文 参考訳(メタデータ) (2022-09-22T17:47:21Z) - Bayesian Optimization for Selecting Efficient Machine Learning Models [53.202224677485525]
本稿では,予測効率とトレーニング効率の両面において,モデルを協調最適化するための統一ベイズ最適化フレームワークを提案する。
レコメンデーションタスクのためのモデル選択の実験は、この方法で選択されたモデルがモデルのトレーニング効率を大幅に改善することを示している。
論文 参考訳(メタデータ) (2020-08-02T02:56:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。