論文の概要: Optimally Combining Classifiers for Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2006.04097v1
- Date: Sun, 7 Jun 2020 09:28:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 07:38:45.252563
- Title: Optimally Combining Classifiers for Semi-Supervised Learning
- Title(参考訳): 半教師付き学習のための分類器の最適組み合わせ
- Authors: Zhiguo Wang, Liusha Yang, Feng Yin, Ke Lin, Qingjiang Shi, Zhi-Quan
Luo
- Abstract要約: 本稿では,Xgboostとトランスダクティブ支援ベクトルマシンの長所を適応的に組み合わせた半教師付き学習手法を提案する。
UCIデータセットと実商業データセットの実験結果から,提案手法の5つの最先端アルゴリズムよりも優れた分類性能を示した。
- 参考スコア(独自算出の注目度): 43.77365242185884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper considers semi-supervised learning for tabular data. It is widely
known that Xgboost based on tree model works well on the heterogeneous features
while transductive support vector machine can exploit the low density
separation assumption. However, little work has been done to combine them
together for the end-to-end semi-supervised learning. In this paper, we find
these two methods have complementary properties and larger diversity, which
motivates us to propose a new semi-supervised learning method that is able to
adaptively combine the strengths of Xgboost and transductive support vector
machine. Instead of the majority vote rule, an optimization problem in terms of
ensemble weight is established, which helps to obtain more accurate pseudo
labels for unlabeled data. The experimental results on the UCI data sets and
real commercial data set demonstrate the superior classification performance of
our method over the five state-of-the-art algorithms improving test accuracy by
about $3\%-4\%$. The partial code can be found at
https://github.com/hav-cam-mit/CTO.
- Abstract(参考訳): 本稿では,表データの半教師付き学習について考察する。
木モデルに基づくxgboostは不均一な特徴にうまく作用することが広く知られているが、トランスダクティブサポートベクターマシンは低密度分離の仮定を活用できる。
しかし、エンドツーエンドの半教師付き学習のためにそれらを組み合わせる作業はほとんど行われていない。
本稿では,これら2つの手法は相補的特性と多様性が強く,Xgboostとトランスダクティブ支援ベクトルマシンの長所を適応的に組み合わせた半教師付き学習手法を提案する。
多数決ルールの代わりに、アンサンブルウェイトの観点から最適化問題を確立し、ラベルなしデータのより正確な擬似ラベルを得るのに役立つ。
UCIデータセットと実商用データセットの実験結果から,テスト精度を約3\%-4\%$に向上させる5つの最先端アルゴリズムよりも,提案手法の分類性能が優れていることが示された。
部分コードはhttps://github.com/hav-cam-mit/CTOで見ることができる。
関連論文リスト
- A Hard-to-Beat Baseline for Training-free CLIP-based Adaptation [121.0693322732454]
対照的に、CLIP(Contrastive Language- Image Pretraining)はその目覚ましいゼロショット能力で人気を集めている。
近年の研究では、下流タスクにおけるCLIPの性能を高めるための効率的な微調整手法の開発に焦点が当てられている。
従来のアルゴリズムであるガウス判別分析(GDA)を再検討し,CLIPの下流分類に適用する。
論文 参考訳(メタデータ) (2024-02-06T15:45:27Z) - Dense FixMatch: a simple semi-supervised learning method for pixel-wise
prediction tasks [68.36996813591425]
Dense FixMatchは,高密度かつ構造化された予測タスクのオンライン半教師付き学習のための簡易な手法である。
我々は、擬似ラベルにマッチング操作を追加することにより、画像分類を超えた半教師付き学習問題にFixMatchの適用を可能にする。
Dense FixMatchは、ラベル付きデータのみを使用して教師付き学習と比較すると、結果を著しく改善し、ラベル付きサンプルの1/4でそのパフォーマンスに近づいた。
論文 参考訳(メタデータ) (2022-10-18T15:02:51Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - KGBoost: A Classification-based Knowledge Base Completion Method with
Negative Sampling [29.14178162494542]
KGBoostは、リンク予測の欠如のために強力な分類器を訓練する新しい方法である。
我々は、複数のベンチマークデータセットで実験を行い、KGBoostがほとんどのデータセットで最先端のメソッドより優れていることを示す。
エンドツーエンドの最適化によって訓練されたモデルと比較して、KGBoostは、より小さなモデルサイズを実現するために、低次元設定下でうまく機能する。
論文 参考訳(メタデータ) (2021-12-17T06:19:37Z) - MIO : Mutual Information Optimization using Self-Supervised Binary
Contrastive Learning [19.5917119072985]
対が正かどうかを予測するために、比較学習を二項分類問題にモデル化する。
提案手法は,STL-10,CIFAR-10,CIFAR-100などのベンチマークデータセットにおいて,最先端のアルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2021-11-24T17:51:29Z) - Improving Contrastive Learning on Imbalanced Seed Data via Open-World
Sampling [96.8742582581744]
我々は、Model-Aware K-center (MAK)と呼ばれるオープンワールドなラベルなしデータサンプリングフレームワークを提案する。
MAKは、尾性、近接性、多様性の3つの単純な原則に従う。
我々はMAKが学習した機能の全体的な表現品質とクラスバランス性の両方を継続的に改善できることを実証した。
論文 参考訳(メタデータ) (2021-11-01T15:09:41Z) - C$^{4}$Net: Contextual Compression and Complementary Combination Network
for Salient Object Detection [0.0]
機能結合は、乗算や加算のような他の組み合わせ方法よりもうまく機能することを示す。
また、共同特徴学習は、処理中の情報共有のため、より良い結果をもたらす。
論文 参考訳(メタデータ) (2021-10-22T16:14:10Z) - Model-Change Active Learning in Graph-Based Semi-Supervised Learning [5.174023161939957]
モデル変更」アクティブラーニングは、追加ラベルを導入して得られた変化を定量化する
後方分布のラプラス近似を用いて, 取得関数を効率的に近似できる凸損失関数の族を考える。
論文 参考訳(メタデータ) (2021-10-14T21:47:10Z) - GRAD-MATCH: A Gradient Matching Based Data Subset Selection for
Efficient Learning [23.75284126177203]
我々は、トレーニングや検証セットの勾配と密接に一致する部分集合を見つける汎用フレームワークgrad-matchを提案する。
GRAD-MATCHは、最近のデータ選択アルゴリズムよりも大きく、一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-02-27T04:09:32Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。