論文の概要: Multi-task nonparallel support vector machine for classification
- arxiv url: http://arxiv.org/abs/2204.02972v1
- Date: Tue, 5 Apr 2022 12:50:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-09 10:11:58.021522
- Title: Multi-task nonparallel support vector machine for classification
- Title(参考訳): 分類用マルチタスク非並列サポートベクターマシン
- Authors: Zongmin Liu and Yitian Xu
- Abstract要約: 直接マルチタスクツインサポートベクトルマシン(DMTSVM)は、複数の相関タスク間の共有情報を探索する。
二重問題を解く際に行列反転演算を含むので、実行時間が非常にかかる。
本稿では,線形および非線形ケースを含む新しいマルチタスク非並列サポートベクトルマシン(MTNPSVM)を提案する。
- 参考スコア(独自算出の注目度): 5.076419064097733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Direct multi-task twin support vector machine (DMTSVM) explores the shared
information between multiple correlated tasks, then it produces better
generalization performance. However, it contains matrix inversion operation
when solving the dual problems, so it costs much running time. Moreover, kernel
trick cannot be directly utilized in the nonlinear case. To effectively avoid
above problems, a novel multi-task nonparallel support vector machine (MTNPSVM)
including linear and nonlinear cases is proposed in this paper. By introducing
epsilon-insensitive loss instead of square loss in DMTSVM, MTNPSVM effectively
avoids matrix inversion operation and takes full advantage of the kernel trick.
Theoretical implication of the model is further discussed. To further improve
the computational efficiency, the alternating direction method of multipliers
(ADMM) is employed when solving the dual problem. The computational complexity
and convergence of the algorithm are provided. In addition, the property and
sensitivity of the parameter in model are further explored. The experimental
results on fifteen benchmark datasets and twelve image datasets demonstrate the
validity of MTNPSVM in comparison with the state-of-the-art algorithms.
Finally, it is applied to real Chinese Wine dataset, and also verifies its
effectiveness.
- Abstract(参考訳): 直接マルチタスクツインサポートベクトルマシン(DMTSVM)は,複数の関連タスク間の共有情報を探索し,より優れた一般化性能を実現する。
しかし、二重問題を解く際に行列反転演算を含むため、実行時間が非常にかかる。
さらに、カーネルトリックは非線形の場合では直接利用できない。
上記の問題を効果的に回避するために,線形および非線形ケースを含む新しいマルチタスク非並列サポートベクトルマシン(MTNPSVM)を提案する。
DMTSVMの2乗損失の代わりにエプシロン非感受性損失を導入することで、MTNPSVMは行列反転操作を効果的に回避し、カーネルのトリックを最大限に活用する。
モデルの理論的な意味をさらに議論する。
計算効率をさらに向上するため、二重問題を解く際に乗算器の交互方向法(ADMM)を用いる。
計算の複雑さとアルゴリズムの収束性を提供する。
さらに,モデルにおけるパラメータの特性と感度についても検討した。
15のベンチマークデータセットと12の画像データセットの実験結果は、最先端のアルゴリズムと比較してMTNPSVMの有効性を示している。
最後に、実際の中国ワインデータセットに適用され、その効果を検証する。
関連論文リスト
- An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - Low-Rank Multitask Learning based on Tensorized SVMs and LSSVMs [65.42104819071444]
マルチタスク学習(MTL)はタスク関連性を活用して性能を向上させる。
タスクインデックスに対応する各モードを持つ高次テンソルを用いて、複数のインデックスが参照するタスクを自然に表現する。
テンソル化サポートベクターマシン(SVM)と最小2乗サポートベクターマシン(LSSVM)を併用した低ランクMTL手法の汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T14:28:26Z) - Tensorized LSSVMs for Multitask Regression [48.844191210894245]
マルチタスク学習(MTL)は、複数のタスク間の関連性を利用してパフォーマンスを向上させる。
低ランクテンソル解析とLast Squares Support Vectorized Least Squares Support Vectorized tLSSVM-MTLを利用する。
論文 参考訳(メタデータ) (2023-03-04T16:36:03Z) - Optimized Sparse Matrix Operations for Reverse Mode Automatic
Differentiation [3.72826300260966]
本稿では,PyTorch のための CSR ベースのスパース行列ラッパーの実装について述べる。
また,結果のスパースカーネルを最適化に応用し,実装や性能測定の容易さを高密度カーネルと比較した。
論文 参考訳(メタデータ) (2022-12-10T00:46:51Z) - Asymmetric Scalable Cross-modal Hashing [51.309905690367835]
クロスモーダルハッシュは、大規模なマルチメディア検索問題を解決する方法として成功している。
これらの問題に対処する新しい非対称スケーラブルクロスモーダルハッシュ(ASCMH)を提案する。
我々のASCMHは、最先端のクロスモーダルハッシュ法よりも精度と効率の点で優れています。
論文 参考訳(メタデータ) (2022-07-26T04:38:47Z) - Nonlinear Kernel Support Vector Machine with 0-1 Soft Margin Loss [13.803988813225025]
本稿では,0-1ソフトマージン損失を持つサポートベクトルマシンの非線形モデルである$L_0/1$-KSVMを提案する。
1$L_0/1$-KSVMは、線形ピアに比べて非常に少ないSVを持ち、正確な予測精度を持つ。
論文 参考訳(メタデータ) (2022-03-01T12:53:52Z) - Fast Differentiable Matrix Square Root and Inverse Square Root [65.67315418971688]
微分可能な行列平方根と逆平方根を計算するためのより効率的な2つの変種を提案する。
前方伝搬には, Matrix Taylor Polynomial (MTP) を用いる方法と, Matrix Pad'e Approximants (MPA) を使用する方法がある。
一連の数値実験により、両方の手法がSVDやNSの繰り返しと比較してかなりスピードアップすることが示された。
論文 参考訳(メタデータ) (2022-01-29T10:00:35Z) - Training very large scale nonlinear SVMs using Alternating Direction
Method of Multipliers coupled with the Hierarchically Semi-Separable kernel
approximations [0.0]
非線形サポートベクトルマシン(SVM)は、線形マシンと比較して、かなり高い分類品質が得られる。
彼らの計算複雑性は、大規模なデータセットでは禁じられている。
論文 参考訳(メタデータ) (2021-08-09T16:52:04Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - AML-SVM: Adaptive Multilevel Learning with Support Vector Machines [0.0]
本稿では非線形SVMのための適応型多段階学習フレームワークを提案する。
改良プロセス全体の分類品質を改善し、マルチスレッド並列処理を活用して性能を向上する。
論文 参考訳(メタデータ) (2020-11-05T00:17:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。