論文の概要: Is Hyper-Parameter Optimization Different for Software Analytics?
- arxiv url: http://arxiv.org/abs/2401.09622v3
- Date: Mon, 25 Nov 2024 18:55:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:17:20.548222
- Title: Is Hyper-Parameter Optimization Different for Software Analytics?
- Title(参考訳): ハイパーパラメータ最適化はソフトウェア分析に異なるか?
- Authors: Rahul Yedida, Tim Menzies,
- Abstract要約: SEデータはクラス間の"smoother"境界を持つことができる。
SMOOTHIEはより高速に動作し、SEデータでより良い予測を行う。
- 参考スコア(独自算出の注目度): 11.85735565104864
- License:
- Abstract: Yes. SE data can have "smoother" boundaries between classes (compared to traditional AI data sets). To be more precise, the magnitude of the second derivative of the loss function found in SE data is typically much smaller. A new hyper-parameter optimizer, called SMOOTHIE, can exploit this idiosyncrasy of SE data. We compare SMOOTHIE and a state-of-the-art AI hyper-parameter optimizer on three tasks: (a) GitHub issue lifetime prediction (b) detecting static code warnings false alarm; (c) defect prediction. For completeness, we also show experiments on some standard AI datasets. SMOOTHIE runs faster and predicts better on the SE data--but ties on non-SE data with the AI tool. Hence we conclude that SE data can be different to other kinds of data; and those differences mean that we should use different kinds of algorithms for our data. To support open science and other researchers working in this area, all our scripts and datasets are available on-line at https://github.com/yrahul3910/smoothness-hpo/.
- Abstract(参考訳): はい。
SEデータは、(従来のAIデータセットと比較して)クラス間の"smoother"バウンダリを持つことができる。
より正確に言うと、SEデータに見られる損失関数の第2の導関数の大きさは、典型的にはずっと小さい。
SMOOTHIEと呼ばれる新しいハイパーパラメータオプティマイザは、SEデータのこの慣用性を利用することができる。
SMOOTHIEと最先端のAIハイパーパラメータオプティマイザを3つのタスクで比較する。
(a)GitHubが生涯予測を発行
b) 静的コード警告が誤報を検知すること。
(c)欠陥予測
完全性については、標準的なAIデータセットの実験も行います。
SMOOTHIEはより高速に動作し、SEデータでより良い予測を行う。
したがって、SEデータは他の種類のデータと異なる可能性があると結論付け、これらの違いは、データに異なる種類のアルゴリズムを使う必要があることを意味します。
この領域で働くオープンサイエンスや他の研究者をサポートするため、我々のスクリプトとデータセットはすべてhttps://github.com/yrahul3910/smoothness-hpo/.com/でオンライン公開されている。
関連論文リスト
- Be aware of overfitting by hyperparameter optimization! [0.0]
ハイパーパラメータ最適化が必ずしも良いモデルをもたらすとは限らないことを示し、おそらく同じ統計測度を使用する場合の過度な適合が原因である。
我々はまた、トランスフォーマーCNNと呼ばれる笑顔の自然言語処理に基づく表現学習手法を追加することで、過去の分析を拡張した。
この結果から,トランスフォーマーCNNは,28対比較中26対比較において,グラフベースの手法よりも優れた結果を示した。
論文 参考訳(メタデータ) (2024-07-30T12:45:05Z) - Scaling Laws for Data Filtering -- Data Curation cannot be Compute Agnostic [99.3682210827572]
ビジョン言語モデル(VLM)は、慎重にキュレートされたWebデータセット上で数千のGPU時間でトレーニングされる。
データキュレーション戦略は通常、トレーニングに利用可能な計算を知らないように開発されている。
ウェブデータの非均一性を考慮したニューラルスケーリング法則を導入する。
論文 参考訳(メタデータ) (2024-04-10T17:27:54Z) - Learning from Very Little Data: On the Value of Landscape Analysis for
Predicting Software Project Health [13.19204187502255]
本報告では、ニSNEAKの健康計画への応用についてのみ検討する。しかしながら、この手法が幅広い問題に適用されるのを防ぐため、原則として何も見つからない。
論文 参考訳(メタデータ) (2023-01-16T19:27:16Z) - Semantic Preserving Adversarial Attack Generation with Autoencoder and
Genetic Algorithm [29.613411948228563]
小さなノイズは、最先端のモデルを騙して誤った予測をする。
自動エンコーダによって抽出されたデータの潜時特性を変更するブラックボックス攻撃を提案する。
我々は,MNISTとCIFAR-10データセットを用いてオートエンコーダを訓練し,遺伝的アルゴリズムを用いて最適な逆方向摂動を発見した。
論文 参考訳(メタデータ) (2022-08-25T17:27:26Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Self-Supervised Neural Architecture Search for Imbalanced Datasets [129.3987858787811]
ニューラルアーキテクチャサーチ(NAS)は、アノテートラベル付きよく計算されたデータセットでトレーニングされた場合、最先端の結果を提供する。
a) アーキテクチャを決定するためにラベルを必要とせず、(b) データセットが不均衡であると仮定する自己管理シナリオに焦点を当てたNASベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-17T14:56:36Z) - Discriminative-Generative Dual Memory Video Anomaly Detection [81.09977516403411]
近年,ビデオ異常検出(VAD)には,トレーニングプロセス中に通常のデータに代えて,いくつかの異常を使おうと試みている。
本稿では,いくつかの異常を生かしてデータの不均衡を解決するために,識別生成型デュアルメモリ(dream)異常検出モデルを提案する。
論文 参考訳(メタデータ) (2021-04-29T15:49:01Z) - MementoML: Performance of selected machine learning algorithm
configurations on OpenML100 datasets [5.802346990263708]
本稿では,異なるMLアルゴリズムの性能を示すベンチマークデータを生成するプロトコルを提案する。
このように収集されたデータは、アルゴリズムのパフォーマンスに影響を与える要因を研究するために使用される。
論文 参考訳(メタデータ) (2020-08-30T13:13:52Z) - How to tune the RBF SVM hyperparameters?: An empirical evaluation of 18
search algorithms [4.394728504061753]
本稿では,実生活115個のバイナリデータセットを対象とした18の探索アルゴリズムを提案する。
Parssは、グリッドに関して、同じツリーに関して、時間的にわずかにしか増加せずに、よりよく検索できることに気付きました。
また,検索アルゴリズムによって1つ以上のデータを見つけると,最適なデータ集合に対して異なる手順に有意な差はないことがわかった。
論文 参考訳(メタデータ) (2020-08-26T16:28:48Z) - New Oracle-Efficient Algorithms for Private Synthetic Data Release [52.33506193761153]
微分プライベートな合成データを構築するための3つの新しいアルゴリズムを提案する。
アルゴリズムは最悪の場合でも差分プライバシーを満たす。
現状の手法である高次元行列機構 citeMcKennaMHM18 と比較すると,我々のアルゴリズムは大規模作業負荷の精度が向上する。
論文 参考訳(メタデータ) (2020-07-10T15:46:05Z) - Least Squares Regression with Markovian Data: Fundamental Limits and
Algorithms [69.45237691598774]
マルコフ連鎖からデータポイントが依存しサンプリングされる最小二乗線形回帰問題について検討する。
この問題を$tau_mathsfmix$という観点から、鋭い情報理論のミニマックス下限を確立する。
本稿では,経験的リプレイに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-16T04:26:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。