論文の概要: Making use of supercomputers in financial machine learning
- arxiv url: http://arxiv.org/abs/2203.00427v1
- Date: Tue, 1 Mar 2022 13:26:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 15:46:50.252394
- Title: Making use of supercomputers in financial machine learning
- Title(参考訳): 金融機械学習におけるスーパーコンピュータの利用
- Authors: Philippe Cotte, Pierre Lagier, Vincent Margot, Christophe Geissler
- Abstract要約: この記事は、FujitsuとAdvestisのコラボレーションの結果です。
そこで我々は,不楽の高性能コンピュータ上で,投資レコメンデーションを創出する体系的な探索に基づくアルゴリズムを実行した。
その結果,探索ルールの数の増加は最終ルールセットの予測性能の増大をもたらすことがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article is the result of a collaboration between Fujitsu and Advestis.
This collaboration aims at refactoring and running an algorithm based on
systematic exploration producing investment recommendations on a
high-performance computer of the Fugaku, to see whether a very high number of
cores could allow for a deeper exploration of the data compared to a cloud
machine, hopefully resulting in better predictions. We found that an increase
in the number of explored rules results in a net increase in the predictive
performance of the final ruleset. Also, in the particular case of this study,
we found that using more than around 40 cores does not bring a significant
computation time gain. However, the origin of this limitation is explained by a
threshold-based search heuristic used to prune the search space. We have
evidence that for similar data sets with less restrictive thresholds, the
number of cores actually used could very well be much higher, allowing
parallelization to have a much greater effect.
- Abstract(参考訳): この記事は、FujitsuとAdvestisのコラボレーションの結果です。
このコラボレーションの目的は、Fungakuの高性能コンピュータに投資勧告を生み出す体系的な探索に基づくアルゴリズムをリファクタリングし、実行することであり、非常に多くのコアがクラウドマシンと比較してデータをより深く探索できるかどうかを確認し、より良い予測をもたらすことが期待できる。
その結果,探索ルールの数の増加は最終ルールセットの予測性能の増大をもたらすことがわかった。
また,本研究の特定のケースでは,40コア以上のコアを用いた場合,計算時間が大幅に向上しないことがわかった。
しかし、この制限の起源は、探索空間をプルーンするために用いられるしきい値に基づく探索ヒューリスティックによって説明される。
制限しきい値の少ない類似のデータセットの場合、実際に使用されるコアの数ははるかに多くなり、並列化がより大きな効果をもたらすという証拠があります。
関連論文リスト
- Merging Experts into One: Improving Computational Efficiency of Mixture
of Experts [71.44422347502409]
スパースミキチャー・オブ・エキスパート(MoE)は、パラメータの小さなサブセットをアクティベートすることでコストを削減することができる。
計算コストを大幅に高めることなく、より多くの専門家を追加するという利点を維持できるだろうか?
そこで我々は,textbftexttMerging Experts into One (MEO) という計算効率のよい手法を提案する。
論文 参考訳(メタデータ) (2023-10-15T13:28:42Z) - Computationally Budgeted Continual Learning: What Does Matter? [128.0827987414154]
CL (Continuous Learning) は、新しいデータに適応しながら、以前の知識を保存し、分布の異なる入力データのストリーム上でモデルを逐次訓練することを目的としている。
現在のCL文献では、以前のデータへのアクセス制限に焦点が当てられているが、トレーニングの計算予算に制約は課されていない。
本稿では,この問題を大規模ベンチマークで再検討し,計算制約条件下での従来のCL手法の性能解析を行う。
論文 参考訳(メタデータ) (2023-03-20T14:50:27Z) - Margin-based sampling in high dimensions: When being active is less
efficient than staying passive [76.71565772067113]
最近の経験的証拠は、辺縁に基づくアクティブラーニングが受動的ラーニングよりもさらに悪い結果をもたらす可能性があることを示唆している。
雑音のないデータであっても、PLが利得ベースALより優れていることがロジスティック回帰の証明である。
以上の結果から, この高次元現象は, クラス間の分離が小さい場合に悪化することが示唆された。
論文 参考訳(メタデータ) (2022-12-01T18:55:59Z) - Itemset Utility Maximization with Correlation Measure [8.581840054840335]
高ユーティリティアイテムセットマイニング(HUIM)は、興味深いが隠された情報(例えば、利益とリスク)を見つけるために使用される。
本稿では,Coium(Coium)を用いたアイテムセット実用性最大化という新しいアルゴリズムを提案する。
2つの上界と4つのプルーニング戦略を用いて探索空間を効果的にプルークする。また、適用された上界を線形時間と空間で計算・保存するために、ユーティリティービンと呼ばれる簡潔なアレイ構造を用いる。
論文 参考訳(メタデータ) (2022-08-26T10:06:24Z) - Providing Meaningful Data Summarizations Using Examplar-based Clustering
in Industry 4.0 [67.80123919697971]
我々は,従来のCPUアルゴリズムと比較して,一精度で最大72倍,半精度で最大452倍の高速化を実現していることを示す。
提案アルゴリズムは射出成形プロセスから得られた実世界のデータに適用し, 得られたサマリーが, コスト削減と不良部品製造の削減のために, この特定のプロセスのステアリングにどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2021-05-25T15:55:14Z) - Scaling Scaling Laws with Board Games [0.0]
我々は、モデルのサイズに基づいて外挿を行うことができるだけでなく、問題の大きさにも適用できることを示しています。
AlphaZero と Hex を用いた一連の実験により,ゲームが大きくなるにつれて,一定量の計算量で達成可能な性能が予測的に低下することを示す。
論文 参考訳(メタデータ) (2021-04-07T13:34:25Z) - Resource Allocation in Multi-armed Bandit Exploration: Overcoming
Sublinear Scaling with Adaptive Parallelism [107.48538091418412]
腕の引っ張りに様々な量の資源を割り当てることができる分割可能な資源にアクセス可能な場合,マルチアームの帯状地における探索について検討する。
特に、分散コンピューティングリソースの割り当てに重点を置いており、プル毎により多くのリソースを割り当てることで、結果をより早く得ることができます。
論文 参考訳(メタデータ) (2020-10-31T18:19:29Z) - Split Computing for Complex Object Detectors: Challenges and Preliminary
Results [8.291242737118482]
大規模データセット(COCO 2017)でトレーニングされた強力なR-CNNオブジェクト検出器のための分割計算手法開発における課題について論じる。
単純な分割計算法では推論時間を短縮できないことを示す。
これは、そのような物体検出器に小さなボトルネックを注入し、スプリットコンピューティングアプローチの可能性を明らかにする最初の研究である。
論文 参考訳(メタデータ) (2020-07-27T05:03:37Z) - Differentiable Adaptive Computation Time for Visual Reasoning [4.7518908453572]
本稿では,DACTと呼ばれる適応計算を実現するための新しいアテンションベースアルゴリズムを提案する。
特に,広く知られているMACアーキテクチャへの応用について検討する。
CLEVRデータセットにおいて、使用するステップの最大数を増やすことで、最高の非適応MACであっても精度を上回ることを示す。
論文 参考訳(メタデータ) (2020-04-27T13:20:23Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。