論文の概要: Heart Disease Prediction: A Comparative Study of Optimisers Performance in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2509.08499v1
- Date: Wed, 10 Sep 2025 11:15:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.403946
- Title: Heart Disease Prediction: A Comparative Study of Optimisers Performance in Deep Neural Networks
- Title(参考訳): 心疾患予測 : 深部神経回路におけるオプティマイザ性能の比較検討
- Authors: Chisom Chibuike, Adeyinka Ogunsanya,
- Abstract要約: そこで我々は,Kaggleの心臓病データセットを用いて,シンプルな多層パーセプトロンモデルのトレーニングにおける10種類のアプローチの性能を比較した。
我々は、一貫したトレーニングパラダイムを設定し、収束速度や安定性などのメトリクスに基づいてメトリクスを評価する。
すべてのメトリクスに対して、重要なメトリクス間でバランスのとれたパフォーマンスを提供するため、この心臓病予測タスクに最も効果的であるようにRMSPropを選択しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimization has been an important factor and topic of interest in training deep learning models, yet less attention has been given to how we select the optimizers we use to train these models. Hence, there is a need to dive deeper into how we select the optimizers we use for training and the metrics that determine this selection. In this work, we compare the performance of 10 different optimizers in training a simple Multi-layer Perceptron model using a heart disease dataset from Kaggle. We set up a consistent training paradigm and evaluate the optimizers based on metrics such as convergence speed and stability. We also include some other Machine Learning Evaluation metrics such as AUC, Precision, and Recall, which are central metrics to classification problems. Our results show that there are trade-offs between convergence speed and stability, as optimizers like Adagrad and Adadelta, which are more stable, took longer time to converge. Across all our metrics, we chose RMSProp to be the most effective optimizer for this heart disease prediction task because it offered a balanced performance across key metrics. It achieved a precision of 0.765, a recall of 0.827, and an AUC of 0.841, along with faster training time. However, it was not the most stable. We recommend that, in less compute-constrained environments, this method of choosing optimizers through a thorough evaluation should be adopted to increase the scientific nature and performance in training deep learning models.
- Abstract(参考訳): 最適化はディープラーニングモデルのトレーニングにおいて重要な要素であり、関心の的となっているが、これらのモデルのトレーニングに使用する最適化方法にはあまり関心が向けられていない。
したがって、トレーニングに使用するオプティマイザの選択方法や、この選択を決定するメトリクスについて、詳しく知る必要があります。
本研究では,Kaggleの心臓病データセットを用いて,シンプルな多層パーセプトロンモデルのトレーニングにおける10種類のオプティマイザの性能を比較した。
我々は一貫したトレーニングパラダイムを設定し、収束速度や安定性といった指標に基づいて最適化手法を評価した。
また、分類問題の中心となるAUC、Precision、Recallなどの機械学習評価指標も含んでいます。
より安定なAdagradやAdadeltaのようなオプティマイザは収束に時間がかかるため、収束速度と安定性の間にはトレードオフがある。
すべてのメトリクスに対して、重要なメトリクス間でバランスの取れたパフォーマンスを提供するため、私たちは、この心臓病予測タスクの最も効果的なオプティマイザとしてRMSPropを選択しました。
精度は0.765、リコールは0.827、AUCは0.841、訓練時間も速い。
しかし、最も安定してはいなかった。
計算制約の少ない環境では、深層学習モデルの学習における科学的性質と性能を高めるために、徹底的な評価を通じて最適化者を選択する方法を採用することを推奨する。
関連論文リスト
- Hyperparameter Transfer Enables Consistent Gains of Matrix-Preconditioned Optimizers Across Scales [55.91454326946738]
学習速度と減量率の最適化は,幅広い言語に対して,モデルの幅と深さでどのようにスケールするかを検討する。
我々は、$Pによる学習率のスケーリングは転送を改善するが、それでもかなりの有限幅偏差に悩まされる可能性があることを見出した。
計算-最適スケーリングでは、独立したウェイト崩壊が1/mathrmwidth$で言語間でほぼ最適であることが分かる。
論文 参考訳(メタデータ) (2025-12-05T11:03:41Z) - Fantastic Pretraining Optimizers and Where to Find Them [59.56075036649332]
AdamWは長い間、言語モデルの事前訓練において支配的な勾配だった。
行列ベースの行列の高速化はモデルスケールに逆比例する。
論文 参考訳(メタデータ) (2025-09-02T07:43:22Z) - Optimizers Qualitatively Alter Solutions And We Should Leverage This [62.662640460717476]
ディープニューラルネットワーク(DNN)は、SGDのようなローカル情報のみを使用する場合、損失のグローバルな最小限に収束することを保証できない。
コミュニティは、既存のメソッドのバイアスを理解すること、また、ソリューションの特定の特性を誘発する明示的な意図で、新しいDNNを構築することを目的としている。
論文 参考訳(メタデータ) (2025-07-16T13:33:31Z) - UniCBE: An Uniformity-driven Comparing Based Evaluation Framework with Unified Multi-Objective Optimization [19.673388630963807]
統一統一性駆動型CBEフレームワークUniCBEを提案する。
AlpacaEvalベンチマークでは、UniCBEは評価予算の17%以上を削減し、Pearsonと地上の真実との相関は0.995を超えている。
新しいモデルが継続的に導入されるシナリオでは、UniCBEは評価コストの50%以上を節約できる。
論文 参考訳(メタデータ) (2025-02-17T05:28:12Z) - Understanding Optimization in Deep Learning with Central Flows [53.66160508990508]
RMSの暗黙的な振る舞いは、微分方程式の「中央流:」によって明示的に捉えられることを示す。
これらのフローは、汎用ニューラルネットワークの長期最適化軌道を経験的に予測できることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:13Z) - CoRe Optimizer: An All-in-One Solution for Machine Learning [0.0]
連続レジリエント収束(CoRe)は、他の最先端の1次勾配に基づく収束アルゴリズムと比較して優れた性能を示した。
CoReは、調査されたすべてのアプリケーションにおいて、最高の、または競争的なパフォーマンスを得る。
論文 参考訳(メタデータ) (2023-07-28T16:48:42Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - A Closer Look at Learned Optimization: Stability, Robustness, and
Inductive Biases [44.01339030872185]
ブラックボックスは、しばしば、メタトレーニングセットのタスクと異なり、安定性と一般化に苦しむ。
最適化アルゴリズムの帰納バイアスと安定性特性について検討し、結果として得られる知見をブラックボックスの帰納バイアスの設計に適用する。
私たちはさまざまなニューラルネットワークトレーニングタスクを学び、そこで学んだ技術の現状を上回ります。
論文 参考訳(メタデータ) (2022-09-22T17:47:21Z) - Bayesian Optimization for Selecting Efficient Machine Learning Models [53.202224677485525]
本稿では,予測効率とトレーニング効率の両面において,モデルを協調最適化するための統一ベイズ最適化フレームワークを提案する。
レコメンデーションタスクのためのモデル選択の実験は、この方法で選択されたモデルがモデルのトレーニング効率を大幅に改善することを示している。
論文 参考訳(メタデータ) (2020-08-02T02:56:30Z) - FOAL: Fast Online Adaptive Learning for Cardiac Motion Estimation [20.642769236234848]
心臓MRIビデオの運動推定は、ヒトの心臓解剖学と機能の評価に不可欠である。
近年の研究では、ディープラーニングベースの手法による有望な結果が示されているが、トレーニングとテストデータセットのミスマッチによる劇的なパフォーマンス低下に悩まされている。
本稿では,メタラーナーによって最適化されたオンライン勾配勾配勾配に基づく,新しい高速オンライン適応学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-10T01:51:27Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。