論文の概要: Memory and Computation-Efficient Kernel SVM via Binary Embedding and
Ternary Model Coefficients
- arxiv url: http://arxiv.org/abs/2010.02577v1
- Date: Tue, 6 Oct 2020 09:41:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 07:41:15.734975
- Title: Memory and Computation-Efficient Kernel SVM via Binary Embedding and
Ternary Model Coefficients
- Title(参考訳): バイナリ埋め込みと三元モデル係数によるメモリと計算効率のよいカーネルsvm
- Authors: Zijian Lei, Liang Lan
- Abstract要約: カーネル近似はカーネルSVMのトレーニングと予測のスケールアップに広く用いられている。
メモリ制限されたデバイスにデプロイしたい場合、カーネル近似モデルのメモリと計算コストはまだ高すぎる。
本稿では,バイナリ埋め込みとバイナリモデル係数を用いて,新しいメモリと計算効率の高いカーネルSVMモデルを提案する。
- 参考スコア(独自算出の注目度): 18.52747917850984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kernel approximation is widely used to scale up kernel SVM training and
prediction. However, the memory and computation costs of kernel approximation
models are still too high if we want to deploy them on memory-limited devices
such as mobile phones, smartwatches, and IoT devices. To address this
challenge, we propose a novel memory and computation-efficient kernel SVM model
by using both binary embedding and binary model coefficients. First, we propose
an efficient way to generate compact binary embedding of the data, preserving
the kernel similarity. Second, we propose a simple but effective algorithm to
learn a linear classification model with ternary coefficients that can support
different types of loss function and regularizer. Our algorithm can achieve
better generalization accuracy than existing works on learning binary
coefficients since we allow coefficient to be $-1$, $0$, or $1$ during the
training stage, and coefficient $0$ can be removed during model inference for
binary classification. Moreover, we provide a detailed analysis of the
convergence of our algorithm and the inference complexity of our model. The
analysis shows that the convergence to a local optimum is guaranteed, and the
inference complexity of our model is much lower than other competing methods.
Our experimental results on five large real-world datasets have demonstrated
that our proposed method can build accurate nonlinear SVM models with memory
costs less than 30KB.
- Abstract(参考訳): カーネル近似はカーネルSVMのトレーニングと予測のスケールアップに広く用いられている。
しかし、携帯電話、スマートウォッチ、IoTデバイスなどのメモリ制限されたデバイスにデプロイしたい場合、カーネル近似モデルのメモリと計算コストは依然として高すぎる。
そこで本研究では,バイナリ埋め込み係数とバイナリモデル係数の両方を用いて,新しいメモリおよび計算効率の高いカーネルsvmモデルを提案する。
まず、カーネルの類似性を保ちながら、データのコンパクトなバイナリ埋め込みを生成する効率的な方法を提案する。
第2に,損失関数と正則化の異なる3次係数を持つ線形分類モデルを学ぶための,単純かつ効果的なアルゴリズムを提案する。
我々のアルゴリズムは、学習段階において係数が1$、$0$、または$1$を許容し、二項分類のためのモデル推論中に係数$0$を除去できるため、既存の二項係数の学習作業よりも優れた一般化精度が得られる。
さらに,アルゴリズムの収束度とモデルの推論複雑性を詳細に解析する。
解析により,局所最適化への収束が保証され,モデルの推論複雑性は他の競合する手法よりもはるかに低いことがわかった。
提案手法は, メモリコストが30KB未満の高精度な非線形SVMモデルを構築することができることを示した。
関連論文リスト
- Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - Towards Efficient Pareto Set Approximation via Mixture of Experts Based Model Fusion [53.33473557562837]
大規模深層ニューラルネットワークに対する多目的最適化問題を解くことは、損失ランドスケープの複雑さと高価な計算コストのために難しい課題である。
本稿では,専門家(MoE)をベースとしたモデル融合を用いて,この問題を実用的でスケーラブルに解決する手法を提案する。
特殊な単一タスクモデルの重みをまとめることで、MoEモジュールは複数の目的間のトレードオフを効果的に捉えることができる。
論文 参考訳(メタデータ) (2024-06-14T07:16:18Z) - Robust kernel-free quadratic surface twin support vector machine with capped $L_1$-norm distance metric [0.46040036610482665]
本稿では,L_normカーネルフリーサーフェスツインサポートベクトルマシン(CL_QTSVM)を提案する。
キャップ付きL_norm距離メートル法を用いることで, モデルのロバスト性をさらに向上する。
提案手法を効率よく解くために反復アルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-05-27T09:23:52Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - A Brain-Inspired Low-Dimensional Computing Classifier for Inference on
Tiny Devices [17.976792694929063]
超次元コンピューティング(HDC)に代わる低次元コンピューティング(LDC)を提案する。
我々は、LCC分類器をニューラルネットワークにマッピングし、原則化されたトレーニングアプローチを用いてモデルを最適化する。
我々のLCC分類器は、既存の脳にインスパイアされたHDCモデルに対して圧倒的な優位性を提供し、特に小さなデバイスでの推論に適している。
論文 参考訳(メタデータ) (2022-03-09T17:20:12Z) - Tensor Network Kalman Filtering for Large-Scale LS-SVMs [17.36231167296782]
最小二乗支援ベクトルマシンは非線形回帰と分類に使用される。
テンソルネットワークとカルマンフィルタに基づくフレームワークは、要求されるメモリと計算の複雑さを軽減する。
その結果,提案手法は高い性能を達成でき,代替手法が計算能力に欠ける場合には特に有用であることがわかった。
論文 参考訳(メタデータ) (2021-10-26T08:54:03Z) - SreaMRAK a Streaming Multi-Resolution Adaptive Kernel Algorithm [60.61943386819384]
既存のKRRの実装では、すべてのデータがメインメモリに格納される必要がある。
KRRのストリーミング版であるStreaMRAKを提案する。
本稿では,2つの合成問題と2重振り子の軌道予測について紹介する。
論文 参考訳(メタデータ) (2021-08-23T21:03:09Z) - Binarization Methods for Motor-Imagery Brain-Computer Interface
Classification [18.722731794073756]
本稿では,実数値重みを2進数に変換する手法を提案する。
2次埋め込みの次元を調整することにより、4級MI(leq$1.27%以下)で、float16重みを持つモデルと比較してほぼ同じ精度を達成する。
提案手法は,CNNの完全連結層をバイポーラランダムプロジェクションを用いたバイナリ拡張メモリに置き換える。
論文 参考訳(メタデータ) (2020-10-14T12:28:18Z) - Scaling Distributed Deep Learning Workloads beyond the Memory Capacity
with KARMA [58.040931661693925]
冗長な再計算とアウト・オブ・コアの手法を組み合わせた戦略を提案する。
最先端のアウト・オブ・コア手法を用いて,6種類のモデルで平均1.22倍の高速化を実現した。
我々のデータ並列化ソリューションは,Megatron-LMやTurning-NLGといった大規模モデルのトレーニングにおいて,複雑なハイブリッドモデル並列性よりも優れる。
論文 参考訳(メタデータ) (2020-08-26T07:24:34Z) - On Coresets for Support Vector Machines [61.928187390362176]
coresetは、元のデータポイントの小さな、代表的なサブセットである。
我々は,本アルゴリズムを用いて,既製のSVMソルバをストリーミング,分散,動的データ設定に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-02-15T23:25:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。