論文の概要: Pre-Sorted Tsetlin Machine (The Genetic K-Medoid Method)
- arxiv url: http://arxiv.org/abs/2403.09680v1
- Date: Wed, 7 Feb 2024 15:30:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 08:06:28.771477
- Title: Pre-Sorted Tsetlin Machine (The Genetic K-Medoid Method)
- Title(参考訳): トセリン前処理装置(遺伝性K-メドイド法)
- Authors: Jordan Morris,
- Abstract要約: 本稿では,Tsetlin Machines を用いた従来の教師あり学習のための機械学習・プリソート・ステージを提案する。
MNISTレベルの分類問題では、精度が最大10%向上する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This paper proposes a machine learning pre-sort stage to traditional supervised learning using Tsetlin Machines. Initially, N data-points are identified from the dataset using an expedited genetic algorithm to solve the maximum dispersion problem. These are then used as the initial placement to run the K-Medoid clustering algorithm. Finally, an expedited genetic algorithm is used to align N independent Tsetlin Machines by maximising hamming distance. For MNIST level classification problems, results demonstrate up to 10% improvement in accuracy, approx. 383X reduction in training time and approx. 86X reduction in inference time.
- Abstract(参考訳): 本稿では,Tsetlin Machines を用いた従来の教師あり学習のための機械学習・プリソート・ステージを提案する。
当初は、最大分散問題を解くために、高速な遺伝的アルゴリズムを用いてデータセットからN個のデータポイントを識別する。
これらをK-Medoidクラスタリングアルゴリズムを実行する初期配置として使用する。
最後に、ハミング距離を最大化することにより、N個の独立したTsetlin Machinesを調整するために、高速な遺伝的アルゴリズムが使用される。
MNISTレベルの分類問題では, 精度が最大10%向上し, 近似が得られた。
383倍に短縮した。
86倍の減少率を示した。
関連論文リスト
- Toward Capturing Genetic Epistasis From Multivariate Genome-Wide Association Studies Using Mixed-Precision Kernel Ridge Regression [4.356528958652799]
英国バイオバンクの305K患者を対象としたGWAS(Genome-Wide Association Studies)の出力精度保存混合精度計算の性能を向上する。
低精度GPU演算によるデータ移動ゲインの強化によるタイル中心適応精度線形代数技術
ほぼ完全なAlpsシステム上で1.805の混合精度ExaOp/sで、最先端のCPU専用REGENIE GWASソフトウェアより5桁高い4精度のColeskyベースの解法を新たに導入する。
論文 参考訳(メタデータ) (2024-09-03T08:50:42Z) - Deep learning-driven scheduling algorithm for a single machine problem
minimizing the total tardiness [0.0]
単一パススケジューリングアルゴリズムで用いられる基準値の分解時間推定器として機能するディープニューラルネットワークを提案する。
機械学習によるアプローチは、トレーニングフェーズからかなり大きなインスタンスへの情報を効率的に一般化できることを示します。
論文 参考訳(メタデータ) (2024-02-19T15:34:09Z) - Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Adaptive Federated Minimax Optimization with Lower Complexities [82.51223883622552]
本稿では,これらのミニマックス問題の解法として,適応最小最適化アルゴリズム(AdaFGDA)を提案する。
運動量に基づく還元および局所SGD技術を構築し、様々な適応学習率を柔軟に組み込む。
論文 参考訳(メタデータ) (2022-11-14T12:32:18Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Algorithms that Approximate Data Removal: New Results and Limitations [2.6905021039717987]
本研究では,経験的リスク最小化を用いて学習した機械学習モデルからユーザデータを削除することの問題点について検討する。
計算とメモリ効率を両立させるオンラインアンラーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-09-25T17:20:33Z) - Classifications based on response times for detecting early-stage
Alzheimer's disease [0.0]
本稿では,早期アルツハイマー病 (ES-AD) と健常者 (HC) の高精度な検出方法について述べる。
本論文では,手書き作業によるHC/ES-ADの分類に関する技術状況の最良の結果よりも,2~4倍の誤差を生じさせる。
論文 参考訳(メタデータ) (2021-02-01T10:08:08Z) - A New Algorithm for Tessellated Kernel Learning [4.264192013842097]
カーネルの理想的な集合として、線形パラメータ化(トラクタビリティ)を認めること、(堅牢性のために)すべてのカーネルの集合に密着すること、(正確性のために)普遍的であること、がある。
最近提案されたTesselated Kernels (TK) は、3つの基準を満たす唯一の既知のクラスである。
対照的に、提案した2ステップのアルゴリズムは1万個のデータポイントにスケールし、回帰問題にまで拡張する。
論文 参考訳(メタデータ) (2020-06-13T18:33:31Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。