論文の概要: On tuning deep learning models: a data mining perspective
- arxiv url: http://arxiv.org/abs/2011.09857v1
- Date: Thu, 19 Nov 2020 14:40:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 21:26:17.289750
- Title: On tuning deep learning models: a data mining perspective
- Title(参考訳): ディープラーニングモデルのチューニングについて:データマイニングの視点から
- Authors: M.M. Ozturk
- Abstract要約: 4種類のディープラーニングアルゴリズムをチューニングとデータマイニングの観点から検討した。
特徴の数は、ディープラーニングアルゴリズムの精度の低下に寄与していない。
データマイニングの観点で、信頼できる結果に到達するためには、均一な分布がより重要である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning algorithms vary depending on the underlying connection
mechanism of nodes of them. They have various hyperparameters that are either
set via specific algorithms or randomly chosen. Meanwhile, hyperparameters of
deep learning algorithms have the potential to help enhance the performance of
the machine learning tasks. In this paper, a tuning guideline is provided for
researchers who cope with issues originated from hyperparameters of deep
learning models. To that end, four types of deep learning algorithms are
investigated in terms of tuning and data mining perspective. Further, common
search methods of hyperparameters are evaluated on four deep learning
algorithms. Normalization helps increase the performance of classification,
according to the results of this study. The number of features has not
contributed to the decline in the accuracy of deep learning algorithms. Even
though high sparsity results in low accuracy, a uniform distribution is much
more crucial to reach reliable results in terms of data mining.
- Abstract(参考訳): ディープラーニングアルゴリズムは、そのノードの根底にある接続機構によって異なる。
様々なハイパーパラメータを持ち、特定のアルゴリズムによって設定されるか、ランダムに選択される。
一方、ディープラーニングアルゴリズムのハイパーパラメータは、機械学習タスクのパフォーマンス向上に役立つ可能性がある。
本稿では,ディープラーニングモデルのハイパーパラメータから生じる問題に対処する研究者を対象に,チューニングガイドラインを提案する。
そこで, チューニングとデータマイニングの観点から, 4種類のディープラーニングアルゴリズムについて検討した。
さらに,4つの深層学習アルゴリズムを用いて,ハイパーパラメータの共通探索法を評価する。
本研究の結果によれば,正規化は分類性能の向上に寄与する。
この機能の数は、ディープラーニングアルゴリズムの精度の低下には寄与していない。
精度は低いが、データマイニングにおいて信頼性の高い結果に到達するためには、均一な分布がより重要である。
関連論文リスト
- Information plane and compression-gnostic feedback in quantum machine learning [0.0]
ニューラルネットワークの学習力学を研究するための解析ツールとして,情報平面が提案されている。
モデルが入力データをどれだけ圧縮するかについての知見を学習アルゴリズムの改善に利用することができるかを検討する。
本稿では,変分量子回路を用いたいくつかの分類および回帰タスクについて,提案した学習アルゴリズムをベンチマークする。
論文 参考訳(メタデータ) (2024-11-04T17:38:46Z) - A Comparative Study of Hyperparameter Tuning Methods [0.0]
木構造型Parzen Estimator (TPE)、遺伝的検索、ランダム検索は回帰および分類タスク間で評価される。
ランダム検索は回帰タスクに優れ、TPEは分類タスクに効果的であった。
論文 参考訳(メタデータ) (2024-08-29T10:35:07Z) - Robustness of Algorithms for Causal Structure Learning to Hyperparameter
Choice [2.3020018305241337]
ハイパーパラメータチューニングは、どんなアルゴリズムでも最先端と予測性能の低さを区別することができる。
本稿では,ハイパーパラメータ選択が因果構造学習タスクに及ぼす影響について検討する。
論文 参考訳(メタデータ) (2023-10-27T15:34:08Z) - Unsupervised Learning of Initialization in Deep Neural Networks via
Maximum Mean Discrepancy [74.34895342081407]
本稿では,入力データに対する優れた初期化を求めるための教師なしアルゴリズムを提案する。
まず、パラメータ空間における各パラメータ構成が、d-way分類の特定の下流タスクに対応することに気付く。
次に、学習の成功は、初期パラメータの近傍で下流タスクがいかに多様であるかに直接関連していると推測する。
論文 参考訳(メタデータ) (2023-02-08T23:23:28Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Exploration of Various Deep Learning Models for Increased Accuracy in
Automatic Polyp Detection [62.997667081978825]
本稿では,大腸内視鏡画像におけるポリプの検出精度が高いディープラーニングモデルとアルゴリズムについて検討する。
畳み込みニューラルネットワーク(CNN)を用いたディープラーニングの研究
論文 参考訳(メタデータ) (2022-03-04T04:03:41Z) - A Pragmatic Look at Deep Imitation Learning [0.3626013617212666]
我々は6つの異なる対向的模倣学習アルゴリズムを再実装する。
広く使われている専門的軌跡データセットで評価する。
GAILは、様々なサンプルサイズにわたって、一貫してよく機能する。
論文 参考訳(メタデータ) (2021-08-04T06:33:10Z) - Evolving Reinforcement Learning Algorithms [186.62294652057062]
メタラーニング強化学習アルゴリズムの手法を提案する。
学習アルゴリズムはドメインに依存しないため、トレーニング中に見えない新しい環境に一般化することができる。
従来の制御タスク、gridworld型タスク、atariゲームよりも優れた一般化性能を得る2つの学習アルゴリズムに注目した。
論文 参考訳(メタデータ) (2021-01-08T18:55:07Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Enhancing accuracy of deep learning algorithms by training with
low-discrepancy sequences [15.2292571922932]
トレーニングセットとして低差分シーケンスに基づく深層教師付き学習アルゴリズムを提案する。
提案アルゴリズムは, 適度な高次元の問題に対して, 標準的なディープラーニングアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-26T08:14:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。