論文の概要: Cluster-based Zero-shot learning for multivariate data
- arxiv url: http://arxiv.org/abs/2001.05624v4
- Date: Wed, 1 Jul 2020 02:41:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 23:35:15.283360
- Title: Cluster-based Zero-shot learning for multivariate data
- Title(参考訳): 多変量データに対するクラスタベースゼロショット学習
- Authors: Toshitaka Hayashi and Hamido Fujita
- Abstract要約: 教師付き学習には、すべてのラベルを含む十分なトレーニングデータセットが必要です。
あるクラスがトレーニングデータ(ターゲットクラス)に含まれていない場合もあります。
既存のゼロショット学習(ZSL)は、トレーニングデータ(ターゲットクラス)にないクラスを予測するタスクである。
- 参考スコア(独自算出の注目度): 8.488860479256573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised learning requires a sufficient training dataset which includes all
label. However, there are cases that some class is not in the training data.
Zero-Shot Learning (ZSL) is the task of predicting class that is not in the
training data(target class). The existing ZSL method is done for image data.
However, the zero-shot problem should happen to every data type. Hence,
considering ZSL for other data types is required. In this paper, we propose the
cluster-based ZSL method, which is a baseline method for multivariate binary
classification problems. The proposed method is based on the assumption that if
data is far from training data, the data is considered as target class. In
training, clustering is done for training data. In prediction, the data is
determined belonging to a cluster or not. If data does not belong to a cluster,
the data is predicted as target class. The proposed method is evaluated and
demonstrated using the KEEL dataset. This paper has been published in the
Journal of Ambient Intelligence and Humanized Computing. The final version is
available at the following URL:
https://link.springer.com/article/10.1007/s12652-020-02268-5
- Abstract(参考訳): 教師付き学習には、すべてのラベルを含む十分なトレーニングデータセットが必要です。
しかし、あるクラスがトレーニングデータに含まれていない場合もあります。
Zero-Shot Learning (ZSL) は、訓練データ(ターゲットクラス)にないクラスを予測するタスクである。
既存のZSL法は画像データに対して行われる。
しかし、ゼロショット問題はあらゆるデータタイプで発生すべきである。
したがって、他のデータ型に対するZSLを考慮する必要がある。
本稿では,多変量二項分類問題に対するベースライン手法であるクラスタベースZSL法を提案する。
提案手法は,データが訓練データから遠ざかれば対象クラスと見なされるという仮定に基づいている。
トレーニングでは、データのトレーニングのためにクラスタリングが行われる。
予測では、データはクラスタに属するか否かを判定する。
データがクラスタに属しない場合、データはターゲットクラスとして予測される。
提案手法は,KEELデータセットを用いて評価および実証を行った。
本論文はJournal of Ambient Intelligence and Humanized Computingに掲載されている。
最終バージョンは以下のURLで利用できる。 https://link.springer.com/article/10.1007/s12652-020-02268-5
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - Automatic Data Curation for Self-Supervised Learning: A Clustering-Based Approach [36.47860223750303]
自己教師付き事前学習のための高品質データセットの自動キュレーションの問題点を考察する。
これらの基準をすべて満たしたクラスタリングに基づく手法を提案する。
我々の方法は、大規模で多様なデータリポジトリ上で、$k$-meansの連続的かつ階層的なアプリケーションを含む。
論文 参考訳(メタデータ) (2024-05-24T14:58:51Z) - MoDE: CLIP Data Experts via Clustering [119.88225963429569]
データエキスパートの混合(Mixture of Data Experts, MODE)を提示し,クラスタリングによるCLIPデータエキスパートのシステム学習を行う。
各データエキスパートは、あるデータクラスタでトレーニングされ、他のクラスタの偽陰性ノイズに対する感度が低い。
実験によると、ViT-B/16の4人のCLIPデータ専門家が、OpenAI CLIPとOpenCLIPによるViT-L/14のゼロショット画像分類よりも優れていた。
論文 参考訳(メタデータ) (2024-04-24T17:59:24Z) - Balanced Data Sampling for Language Model Training with Clustering [96.46042695333655]
本稿では,学習データのテキスト分布のバランスをとるためにClusterClip Smplingを提案する。
大規模な実験は、ClusterClip Smplingの有効性を検証する。
論文 参考訳(メタデータ) (2024-02-22T13:20:53Z) - Three Heads Are Better Than One: Complementary Experts for Long-Tailed Semi-supervised Learning [74.44500692632778]
本稿では,様々なクラス分布をモデル化するComPlementary Experts (CPE) を提案する。
CPEは、CIFAR-10-LT、CIFAR-100-LT、STL-10-LTのベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-25T11:54:07Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - Addressing Class Variable Imbalance in Federated Semi-supervised
Learning [10.542178602467885]
我々は,クラス変数の不均衡を解決するために,FCVI(Federated Semi-supervised Learning for Class Variable Im Balance)を提案する。
FCVIは、クラス数の変化によるデータの不均衡を軽減するために使用される。
クライアントのプライバシを維持しながら,ベースライン方式よりもはるかに優れた手法であることが実証された。
論文 参考訳(メタデータ) (2023-03-21T12:50:17Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - DoubleMatch: Improving Semi-Supervised Learning with Self-Supervision [16.757456364034798]
半教師付き学習(SSL)はますます人気が高まっている。
擬似ラベル手法と自己教師付き損失を組み合わせた新しいSSLアルゴリズムであるDoubleMatchを提案する。
本手法は,既存のSSL手法と比較してトレーニング時間を短縮しつつ,複数のベンチマークデータセット上で最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-05-11T15:43:48Z) - ABC: Auxiliary Balanced Classifier for Class-imbalanced Semi-supervised
Learning [6.866717993664787]
既存の半教師付き学習(SSL)アルゴリズムは、クラスバランスのデータセットを仮定する。
ラベルのないデータを効果的に活用できるスケーラブルなクラス不均衡SSLアルゴリズムを提案する。
提案アルゴリズムは,4つのベンチマークデータセットを用いて,様々なクラス不均衡SSL実験における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-10-20T04:07:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。