論文の概要: When SIMPLE is better than complex: A case study on deep learning for
predicting Bugzilla issue close time
- arxiv url: http://arxiv.org/abs/2101.06319v1
- Date: Fri, 15 Jan 2021 22:56:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-28 12:14:31.642029
- Title: When SIMPLE is better than complex: A case study on deep learning for
predicting Bugzilla issue close time
- Title(参考訳): SIMPLEが複雑よりも優れている場合--Bugzilla問題近距離予測のためのディープラーニングのケーススタディ
- Authors: Rahul Yedida, Xueqi Yang, Tim Menzies
- Abstract要約: 本論文では,Bugzillaにおける問題クローズタイムの予測にディープラーニングを用いたケーススタディを提案する。
我々は、数十年前のフィードフォワードニューラルネットワークへのSIMPLE拡張が、より最近でより精巧な「長期記憶」ディープラーニングよりもうまく動作することを報告した。
- 参考スコア(独自算出の注目度): 14.923724400499257
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Is deep learning over-hyped? Where are the case studies that compare
state-of-the-art deep learners with simpler options? In response to this gap in
the literature, this paper offers one case study on using deep learning to
predict issue close time in Bugzilla.
We report here that a SIMPLE extension to a decades-old feedforward neural
network works better than the more recent, and more elaborate, "long-short term
memory" deep learning (which are currently popular in the SE literature).
SIMPLE is a combination of a fast feedforward network and a hyper-parameter
optimizer. SIMPLE runs in 3 seconds while the newer algorithms take 6 hours to
terminate. Since it runs so fast, it is more amenable to being tuned by our
optimizer. This paper reports results seen after running SIMPLE on issue close
time data from 45,364 issues raised in Chromium, Eclipse, and Firefox projects
from January 2010 to March 2016. In our experiments, this SIMPLEr tuning
approach achieves significantly better predictors for issue close time than the
more complex deep learner. These better and SIMPLEr results can be generated
2,700 times faster than if using a state-of-the-art deep learner.
From this result, we make two conclusions. Firstly, for predicting issue
close time, we would recommend SIMPLE over complex deep learners. Secondly,
before analysts try very sophisticated (but very slow) algorithms, they might
achieve better results, much sooner, by applying hyper-parameter optimization
to simple (but very fast) algorithms.
- Abstract(参考訳): ディープラーニングは過大評価されているか?
最先端のディープラーニングとシンプルな選択肢を比較するケーススタディはどこにあるのか?
本稿は,本論文におけるこのギャップに対応するため,バグジラのクローズタイム予測にディープラーニングを用いた場合のケーススタディを提案する。
ここでは、何十年も前からあるfeedforwardニューラルネットワークのシンプルな拡張が、より最近でより精巧な"long-short term memory"深層学習(現在se文学で人気がある)よりもうまく機能していることを報告する。
SIMPLEは高速フィードフォワードネットワークとハイパーパラメータオプティマイザの組み合わせである。
SIMPLEは3秒で実行され、新しいアルゴリズムは終了まで6時間かかる。
実行速度が非常に速いので、オプティマイザによってチューニングされる方が適しています。
この記事は、2010年1月から2016年3月までにChromium、Eclipse、Firefoxプロジェクトで発生した45,364件のクローズタイムデータでSIMPLEを実行した後の結果を報告する。
実験では, このSIMPLErチューニング手法により, より複雑な深層学習者よりも, 問題近接時間の予測精度が有意に向上した。
この良くてシンプルな結果は、最先端のディープラーナーを使用する場合よりも2,700倍高速に生成できる。
この結果から、2つの結論が得られた。
まず,問題近接時間を予測するため,複雑な深層学習者に対してSIMPLEを推奨する。
第二に、アナリストが非常に洗練された(しかし非常に遅い)アルゴリズムを試す前に、単純な(しかし非常に速い)アルゴリズムにハイパーパラメータ最適化を適用することで、より早くより良い結果が得られるかもしれない。
関連論文リスト
- AcceleratedLiNGAM: Learning Causal DAGs at the speed of GPUs [57.12929098407975]
既存の因果探索法を効率的に並列化することにより,数千次元まで拡張可能であることを示す。
具体的には、DirectLiNGAMの因果順序付けサブプロデューサに着目し、GPUカーネルを実装して高速化する。
これにより、遺伝子介入による大規模遺伝子発現データに対する因果推論にDirectLiNGAMを適用することで、競争結果が得られる。
論文 参考訳(メタデータ) (2024-03-06T15:06:11Z) - Practical Network Acceleration with Tiny Sets: Hypothesis, Theory, and
Algorithm [38.742142493108744]
そこで本研究では,小さなトレーニングセットのみを用いてネットワークを高速化するアルゴリズムを提案する。
22%のレイテンシ削減のために、ImageNet-1kでは、平均7パーセントのポイントで、従来の方法を上回っている。
論文 参考訳(メタデータ) (2023-03-02T05:10:31Z) - Bagging is an Optimal PAC Learner [12.411844611718958]
Baggingは、Hannekeのアルゴリズムが20年前から使われており、ほとんどの学部の機械学習コースで教えられている。
我々は,ハネケのアルゴリズムを20年前から実践しており,ほとんどの学部の機械学習コースで教えられていることを示す。
論文 参考訳(メタデータ) (2022-12-05T13:43:51Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - Learning to Optimize Quasi-Newton Methods [22.504971951262004]
本稿では、最適化時に最適な事前条件をオンラインで学習するLODOと呼ばれる新しい機械学習を提案する。
他のL2Oメソッドとは異なり、LODOはトレーニングタスクの配布にメタトレーニングを一切必要としない。
この勾配は, 雑音場における逆 Hessian を近似し, 幅広い逆 Hessian を表現可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T03:47:14Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Faster Matchings via Learned Duals [31.61057940283721]
機械学習予測のアイデアと「スタート・ウォーム」原始二元アルゴリズムのアイデアを組み合わせる。
まず、予測可能な双対は実現不可能である可能性があるので、予測できない双対を近くの実現可能な解に効率的にマッピングするアルゴリズムを提供する。
第二に、一度双対が実現可能ならば、それらは最適ではないかもしれない。
論文 参考訳(メタデータ) (2021-07-20T21:11:09Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Resource Allocation in Multi-armed Bandit Exploration: Overcoming
Sublinear Scaling with Adaptive Parallelism [107.48538091418412]
腕の引っ張りに様々な量の資源を割り当てることができる分割可能な資源にアクセス可能な場合,マルチアームの帯状地における探索について検討する。
特に、分散コンピューティングリソースの割り当てに重点を置いており、プル毎により多くのリソースを割り当てることで、結果をより早く得ることができます。
論文 参考訳(メタデータ) (2020-10-31T18:19:29Z) - Learning to Accelerate Heuristic Searching for Large-Scale Maximum
Weighted b-Matching Problems in Online Advertising [51.97494906131859]
バイパルタイトbマッチングはアルゴリズム設計の基本であり、経済市場や労働市場などに広く適用されている。
既存の正確で近似的なアルゴリズムは、通常そのような設定で失敗する。
我々は、以前の事例から学んだ知識を活用して、新しい問題インスタンスを解決するtextttNeuSearcherを提案する。
論文 参考訳(メタデータ) (2020-05-09T02:48:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。