論文の概要: Multi-view learning with privileged weighted twin support vector machine
- arxiv url: http://arxiv.org/abs/2201.11306v1
- Date: Thu, 27 Jan 2022 03:49:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 14:05:30.655119
- Title: Multi-view learning with privileged weighted twin support vector machine
- Title(参考訳): 特権付き双立支援ベクトルマシンによる多視点学習
- Authors: Ruxin Xu, Huiru Wang
- Abstract要約: 重み付きツインサポートベクターマシン(WLTSVM)は、非並列平面分類器の共通の欠点を改善するために、サンプル内で可能な限り多くの潜在的な類似情報をマイニングする。
ツインサポートベクトルマシン(TWSVM)と比較して、クラス間K-Nearest Neighbor(KNN)を用いて超流動制約を削除することにより、時間の複雑さを低減する。
本稿では,制限付きツインサポートベクトルマシン(MPWTSVM)を用いた多視点学習を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weighted twin support vector machines (WLTSVM) mines as much potential
similarity information in samples as possible to improve the common
short-coming of non-parallel plane classifiers. Compared with twin support
vector machines (TWSVM), it reduces the time complexity by deleting the
superfluous constraints using the inter-class K-Nearest Neighbor (KNN).
Multi-view learning (MVL) is a newly developing direction of machine learning,
which focuses on learning acquiring information from the data indicated by
multiple feature sets. In this paper, we propose multi-view learning with
privileged weighted twin support vector machines (MPWTSVM). It not only
inherits the advantages of WLTSVM but also has its characteristics. Firstly, it
enhances generalization ability by mining intra-class information from the same
perspective. Secondly, it reduces the redundancy constraints with the help of
inter-class information, thus improving the running speed. Most importantly, it
can follow both the consensus and the complementarity principle simultaneously
as a multi-view classification model. The consensus principle is realized by
minimizing the coupling items of the two views in the original objective
function. The complementary principle is achieved by establishing privileged
information paradigms and MVL. A standard quadratic programming solver is used
to solve the problem. Compared with multi-view classification models such as
SVM-2K, MVTSVM, MCPK, and PSVM-2V, our model has better accuracy and
classification efficiency. Experimental results on 45 binary data sets prove
the effectiveness of our method.
- Abstract(参考訳): 重み付き双対サポートベクターマシン(wltsvm)は、可能な限りサンプル内の潜在的な類似情報をマイニングし、非平行平面分類器の共通短所を改善する。
ツインサポートベクトルマシン (TWSVM) と比較して、クラス間K-Nearest Neighbor (KNN) を用いて過剰な制約を削除することにより、時間の複雑さを低減する。
マルチビュー学習(Multi-view learning, MVL)は、複数の特徴セットによって示されるデータから情報を取得することに焦点を当てた、機械学習の新たな方向性である。
本稿では,制限付きツインサポートベクトルマシン(MPWTSVM)を用いたマルチビュー学習を提案する。
WLTSVMの利点を継承するだけでなく、その特徴も持っている。
第一に、同じ観点からクラス内情報をマイニングすることで、一般化能力を高める。
第二に、クラス間情報の助けを借りて冗長性の制約を減らし、実行速度を改善する。
最も重要なことは、マルチビュー分類モデルとして、コンセンサスと相補性原理の両方を同時に従えることである。
コンセンサス原理は、2つのビューの結合項目を元の目的関数で最小化することによって実現される。
補完原理は、特権情報パラダイムとMVLを確立することで達成される。
標準的な二次プログラミング解法は、その問題を解決するために用いられる。
SVM-2K, MVTSVM, MCPK, PSVM-2Vなどの多視点分類モデルと比較して, 精度と分類効率が向上した。
45個のバイナリデータセットの実験結果から,本手法の有効性が確認された。
関連論文リスト
- Queryable Prototype Multiple Instance Learning with Vision-Language Models for Incremental Whole Slide Image Classification [10.667645628712542]
本稿では, 逐次WSI分類に特化して設計された, Queryable Prototype Multiple Instance Learning (QPMIL-VL) を用いた視覚言語ベースのフレームワークを提案する。
TCGAデータセットの4つの実験により、我々のQPMIL-VLフレームワークが漸進的なWSI分類に有効であることが示された。
論文 参考訳(メタデータ) (2024-10-14T14:49:34Z) - S^2MVTC: a Simple yet Efficient Scalable Multi-View Tensor Clustering [38.35594663863098]
6つの大規模マルチビューデータセットの実験結果から、S2MVTCはクラスタリング性能とCPU実行時間において、最先端のアルゴリズムを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-14T05:00:29Z) - Low-Rank Multitask Learning based on Tensorized SVMs and LSSVMs [65.42104819071444]
マルチタスク学習(MTL)はタスク関連性を活用して性能を向上させる。
タスクインデックスに対応する各モードを持つ高次テンソルを用いて、複数のインデックスが参照するタスクを自然に表現する。
テンソル化サポートベクターマシン(SVM)と最小2乗サポートベクターマシン(LSSVM)を併用した低ランクMTL手法の汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T14:28:26Z) - Enhancing Pattern Classification in Support Vector Machines through
Matrix Formulation [0.0]
既存のSVMベースのモデルにおけるベクトルベースの定式化への依存は、柔軟性と、特定の問題に対処するために追加用語を組み込むことの容易さに関する制限を生じさせる。
我々はこれらの制約を効果的に解決するSVMの行列定式化を導入する。
マルチラベルおよびマルチクラスデータセットの実験的評価は、Matrix SVMがより優れた時間効率を実現することを示す。
論文 参考訳(メタデータ) (2023-07-18T15:56:39Z) - Dual Learning for Large Vocabulary On-Device ASR [64.10124092250128]
デュアル・ラーニング(英: Dual learning)は、教師なしのデータを一度に2つの逆のタスクを解くことによって活用しようとする、半教師なし機械学習のパラダイムである。
本稿では,Librispeech全体をトレーニングしたオンデバイスサイズのストリーミングコンバータの解析を行い,LMを使わずにWERを10.7%/5.2%,LMを11.7%/16.4%改善したことを示す。
論文 参考訳(メタデータ) (2023-01-11T06:32:28Z) - GraphLearner: Graph Node Clustering with Fully Learnable Augmentation [76.63963385662426]
Contrastive Deep Graph Clustering (CDGC)は、異なるクラスタにノードをグループ化するために、コントラスト学習のパワーを活用する。
我々は、GraphLearnerと呼ばれる、完全学習可能な拡張を備えたグラフノードクラスタリングを提案する。
学習可能な拡張器を導入し、CDGCのための高品質でタスク固有の拡張サンプルを生成する。
論文 参考訳(メタデータ) (2022-12-07T10:19:39Z) - A fast learning algorithm for One-Class Slab Support Vector Machines [1.1613446814180841]
本稿では,SMO (Sequential Minimal Optimization) を用いた一級スラブSVMの高速トレーニング手法を提案する。
その結果、このトレーニング手法は、他の準計画法(QP)の解法よりも、大規模なトレーニングデータに対してより優れたスケールが可能であることが示唆された。
論文 参考訳(メタデータ) (2020-11-06T09:16:39Z) - Dual Adversarial Auto-Encoders for Clustering [152.84443014554745]
教師なしクラスタリングのためのDual-AAE(Dual-AAE)を提案する。
Dual-AAEの目的関数に対する変分推論を行うことで,一対のオートエンコーダをトレーニングすることで最適化可能な新たな再構成損失を導出する。
4つのベンチマーク実験により、Dual-AAEは最先端のクラスタリング手法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-08-23T13:16:34Z) - Optimally Combining Classifiers for Semi-Supervised Learning [43.77365242185884]
本稿では,Xgboostとトランスダクティブ支援ベクトルマシンの長所を適応的に組み合わせた半教師付き学習手法を提案する。
UCIデータセットと実商業データセットの実験結果から,提案手法の5つの最先端アルゴリズムよりも優れた分類性能を示した。
論文 参考訳(メタデータ) (2020-06-07T09:28:34Z) - On Coresets for Support Vector Machines [61.928187390362176]
coresetは、元のデータポイントの小さな、代表的なサブセットである。
我々は,本アルゴリズムを用いて,既製のSVMソルバをストリーミング,分散,動的データ設定に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-02-15T23:25:12Z) - Multi-view Deep Subspace Clustering Networks [64.29227045376359]
マルチビューサブスペースクラスタリングは、相補的な情報の複数のビューを融合することによって、データ固有の構造を発見することを目的としている。
本稿では,MvDSCN(Multi-view Deep Subspace Clustering Networks)を提案する。
MvDSCNはクラスタリング性能を高めるために複数のバックボーンを統合する。
論文 参考訳(メタデータ) (2019-08-06T06:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。