論文の概要: Benchmarking Machine Learning: How Fast Can Your Algorithms Go?
- arxiv url: http://arxiv.org/abs/2101.03219v1
- Date: Fri, 8 Jan 2021 20:50:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 05:04:35.050250
- Title: Benchmarking Machine Learning: How Fast Can Your Algorithms Go?
- Title(参考訳): ベンチマーク機械学習:アルゴリズムの速度はどれくらいか?
- Authors: Zeyu Ning, Hugues Nelson Iradukunda, Qingquan Zhang, Ting Zhu
- Abstract要約: 本稿では,機械学習の高速化におけるいくつかの異なる手法の効果を評価することを目的とした。
以下の内容は、以前のアプローチと我々の実験結果に関するいくつかのレビューを含む。
- 参考スコア(独自算出の注目度): 8.898863361318819
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper is focused on evaluating the effect of some different techniques
in machine learning speed-up, including vector caches, parallel execution, and
so on. The following content will include some review of the previous
approaches and our own experimental results.
- Abstract(参考訳): 本稿では,ベクトルキャッシュや並列実行など,機械学習の高速化における様々な手法の効果を評価することに焦点を当てる。
以下の内容は、以前のアプローチと我々の実験結果に関するいくつかのレビューを含む。
関連論文リスト
- Active Learning of Mealy Machines with Timers [3.087487671441056]
ブラックボックスコンテキストにおけるタイマー付きMealyマシンのクラスを問合せ学習するための最初のアルゴリズムを提案する。
我々のアルゴリズムはVaandragerらのL#アルゴリズムを時間設定に拡張したものである。
論文 参考訳(メタデータ) (2024-03-04T13:20:52Z) - Mechanic: A Learning Rate Tuner [52.4242550204696]
我々は,任意の基本最適化アルゴリズムの学習率尺度係数を調整し,自動的にスケジュールする手法を導入し,それをテクスチャメカニックと呼ぶ。
各種バッチサイズ,スケジュール,基本最適化アルゴリズムを用いて,大規模深層学習タスクにおけるテクスチャメカニックを厳格に評価する。
論文 参考訳(メタデータ) (2023-05-31T19:32:43Z) - Unified Functional Hashing in Automatic Machine Learning [58.77232199682271]
高速に統一された関数型ハッシュを用いることで,大きな効率向上が得られることを示す。
私たちのハッシュは"機能的"であり、表現やコードが異なる場合でも同等の候補を識別します。
ニューラルアーキテクチャ検索やアルゴリズム発見など、複数のAutoMLドメインで劇的な改善がなされている。
論文 参考訳(メタデータ) (2023-02-10T18:50:37Z) - The CLRS Algorithmic Reasoning Benchmark [28.789225199559834]
アルゴリズムの学習表現は機械学習の新たな領域であり、ニューラルネットワークから古典的なアルゴリズムで概念をブリッジしようとしている。
本稿では,従来のアルゴリズムを包括するCLRS Algorithmic Reasoning Benchmarkを提案する。
我々のベンチマークは、ソート、探索、動的プログラミング、グラフアルゴリズム、文字列アルゴリズム、幾何アルゴリズムなど、様々なアルゴリズムの推論手順にまたがっている。
論文 参考訳(メタデータ) (2022-05-31T09:56:44Z) - Benchmarking Processor Performance by Multi-Threaded Machine Learning
Algorithms [0.0]
本稿では,マルチスレッド機械学習クラスタリングアルゴリズムの性能比較を行う。
私は、アルゴリズムのパフォーマンス特性を決定するために、線形回帰、ランダムフォレスト、K-Nearest Neighborsに取り組んでいます。
論文 参考訳(メタデータ) (2021-09-11T13:26:58Z) - A Framework and Benchmarking Study for Counterfactual Generating Methods
on Tabular Data [0.0]
カウンターファクトな説明は、機械学習の予測を説明する効果的な方法と見なされる。
このような説明を導き出そうとするアルゴリズムは、すでに数十ある。
ベンチマーク研究とフレームワークは、実践者がどのテクニックとビルディングブロックが最も適しているかを決定するのに役立ちます。
論文 参考訳(メタデータ) (2021-07-09T21:06:03Z) - Few-shot Sequence Learning with Transformers [79.87875859408955]
少数のトレーニング例で提供される新しいタスクの学習を目的とした少数のショットアルゴリズム。
本研究では,データポイントがトークンのシーケンスである設定において,少数ショット学習を行う。
トランスフォーマーに基づく効率的な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-17T12:30:38Z) - Mastering Rate based Curriculum Learning [78.45222238426246]
学習の進行という概念には、学習者のサンプル効率の低下につながるいくつかの欠点があると主張する。
本稿では,習得率の概念に基づく新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-14T16:34:01Z) - Kernel methods through the roof: handling billions of points efficiently [94.31450736250918]
カーネル法は、非パラメトリック学習に対するエレガントで原則化されたアプローチを提供するが、今のところ大規模な問題ではほとんど利用できない。
最近の進歩は、最適化、数値線形代数、ランダム射影など、多くのアルゴリズム的アイデアの利点を示している。
ここでは、これらの取り組みをさらに進めて、GPUハードウェアを最大限に活用する解決器を開発し、テストする。
論文 参考訳(メタデータ) (2020-06-18T08:16:25Z) - Rethinking Few-Shot Image Classification: a Good Embedding Is All You
Need? [72.00712736992618]
メタトレーニングセット上で教師付きあるいは自己教師型表現を学習する単純なベースラインが、最先端の数ショット学習方法より優れていることを示す。
追加の増量は自己蒸留によって達成できる。
我々は,この発見が,画像分類ベンチマークとメタ学習アルゴリズムの役割を再考する動機となっていると考えている。
論文 参考訳(メタデータ) (2020-03-25T17:58:42Z) - Cyclic Boosting -- an explainable supervised machine learning algorithm [0.0]
本稿では,新しい機械学習アルゴリズム"Cyclic Boosting"を提案する。
正確な回帰と分類のタスクを効率的に行うと同時に、個々の予測がどのように行われたかの詳細な理解を可能にします。
論文 参考訳(メタデータ) (2020-02-09T18:52:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。