論文の概要: Research on Parallel SVM Algorithm Based on Cascade SVM
- arxiv url: http://arxiv.org/abs/2203.05768v1
- Date: Fri, 11 Mar 2022 06:12:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 13:58:03.622828
- Title: Research on Parallel SVM Algorithm Based on Cascade SVM
- Title(参考訳): カスケードsvmに基づく並列svmアルゴリズムに関する研究
- Authors: Yi Cheng, Liu and XiaoYan, Liu
- Abstract要約: 我々は,グループ編成訓練における誤りの原因を分析し,理想的な条件下での誤りのないグループ分けを要約する。
A Balanced Cascade SVM (BCSVM) アルゴリズムが提案されている。
BCSVMアルゴリズムを用いて得られた精度誤差はCSVMの1%から0.1%に削減され、桁違いに低減される。
- 参考スコア(独自算出の注目度): 4.000288772032528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cascade SVM (CSVM) can group datasets and train subsets in parallel, which
greatly reduces the training time and memory consumption. However, the model
accuracy obtained by using this method has some errors compared with direct
training. In order to reduce the error, we analyze the causes of error in
grouping training, and summarize the grouping without error under ideal
conditions. A Balanced Cascade SVM (BCSVM) algorithm is proposed, which
balances the sample proportion in the subset after grouping to ensure that the
sample proportion in the subset is the same as the original dataset. At the
same time, it proves that the accuracy of the model obtained by BCSVM algorithm
is higher than that of CSVM. Finally, two common datasets are used for
experimental verification, and the results show that the accuracy error
obtained by using BCSVM algorithm is reduced from 1% of CSVM to 0.1%, which is
reduced by an order of magnitude.
- Abstract(参考訳): Cascade SVM(CSVM)はデータセットをグループ化し、サブセットを並列にトレーニングすることで、トレーニング時間とメモリ消費を大幅に削減する。
しかし,本手法で得られたモデルの精度は,直接トレーニングと比較して若干の誤差がある。
誤りを減らすために,グループ化トレーニングにおけるエラーの原因を分析し,理想的な条件下ではエラーのないグループ化を要約する。
A Balanced Cascade SVM (BCSVM) アルゴリズムが提案され、サブセット内のサンプルの割合が元のデータセットと同じであることを保証するために、グループ化後のサブセット内のサンプル比のバランスをとる。
同時に、BCSVMアルゴリズムによって得られたモデルの精度がCSVMよりも高いことを証明する。
最後に、2つの共通データセットを用いて実験を行い、BCSVMアルゴリズムを用いて得られた精度誤差をCSVMの1%から0.1%に削減した。
関連論文リスト
- Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Information-Theoretic Generalization Bounds for Iterative
Semi-Supervised Learning [81.1071978288003]
特に,情報理論の原理を用いて,反復型SSLアルゴリズムのエミュレータ一般化誤差の振る舞いを理解することを目的とする。
我々の理論的結果は、クラス条件分散があまり大きくない場合、一般化誤差の上限は反復数とともに単調に減少するが、すぐに飽和することを示している。
論文 参考訳(メタデータ) (2021-10-03T05:38:49Z) - SreaMRAK a Streaming Multi-Resolution Adaptive Kernel Algorithm [60.61943386819384]
既存のKRRの実装では、すべてのデータがメインメモリに格納される必要がある。
KRRのストリーミング版であるStreaMRAKを提案する。
本稿では,2つの合成問題と2重振り子の軌道予測について紹介する。
論文 参考訳(メタデータ) (2021-08-23T21:03:09Z) - Label-Imbalanced and Group-Sensitive Classification under
Overparameterization [32.923780772605596]
ラベルの不均衡でグループに敏感な分類は、関連するメトリクスを最適化するための標準トレーニングアルゴリズムを適切に修正することを目指す。
標準実証的リスク最小化に対するロジット調整による損失修正は,一般的には効果がない可能性がある。
本研究では, 2つの共通する不均衡(ラベル/グループ)を統一的に処理し, 敏感群の二値分類に自然に適用できることを示した。
論文 参考訳(メタデータ) (2021-03-02T08:09:43Z) - Estimating Average Treatment Effects with Support Vector Machines [77.34726150561087]
サポートベクターマシン(SVM)は、機械学習文献で最も人気のある分類アルゴリズムの1つです。
我々はsvmをカーネルベースの重み付け手順として適用し,治療群と制御群の最大平均差を最小化する。
このトレードオフから生じる因果効果推定のバイアスを特徴づけ、提案されたSVM手順と既存のカーネルバランシング手法を結びつけます。
論文 参考訳(メタデータ) (2021-02-23T20:22:56Z) - Unsupervised Real Time Prediction of Faults Using the Support Vector
Machine [1.1852751647387592]
提案手法は,SMOトレーニングアルゴリズムを用いることで,より優れた性能が得られることを示す。
この予測モデルの分類性能は、SMOトレーニングアルゴリズムの有無にかかわらず、SVMよりもかなり優れている。
論文 参考訳(メタデータ) (2020-12-30T04:27:10Z) - Equipment Failure Analysis for Oil and Gas Industry with an Ensemble
Predictive Model [0.0]
提案手法は,SMOトレーニングアルゴリズムを用いることで,より優れた性能が得られることを示す。
この予測モデルの分類性能は、SMOトレーニングアルゴリズムの有無にかかわらず、SVMよりもかなり優れている。
論文 参考訳(メタデータ) (2020-12-30T04:14:15Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Learning by Minimizing the Sum of Ranked Range [58.24935359348289]
本稿では,学習目標を定式化するための一般的なアプローチとして,ランキング範囲(SoRR)の和を紹介した。
ランク付き範囲は、実数の集合のソートされた値の連続的なシーケンスである。
我々は,SoRRフレームワークの最小化のための機械学習における2つの応用,すなわち,バイナリ分類のためのAoRR集約損失とマルチラベル/マルチクラス分類のためのTKML個人損失について検討する。
論文 参考訳(メタデータ) (2020-10-05T01:58:32Z) - Unified SVM Algorithm Based on LS-DC Loss [0.0]
異なるSVMモデルをトレーニングできるアルゴリズムを提案する。
UniSVMはクローズドフォームのソリューションであるため、既存のすべてのアルゴリズムに対して圧倒的な優位性がある。
実験によると、UniSVMはトレーニング時間の短縮で同等のパフォーマンスを達成できる。
論文 参考訳(メタデータ) (2020-06-16T12:40:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。