論文の概要: EEMC: Embedding Enhanced Multi-tag Classification
- arxiv url: http://arxiv.org/abs/2009.13826v1
- Date: Tue, 29 Sep 2020 07:29:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 04:58:46.407519
- Title: EEMC: Embedding Enhanced Multi-tag Classification
- Title(参考訳): eemc:埋め込み型マルチタグ分類
- Authors: Yanlin Li, Shi An, Ruisheng Zhang
- Abstract要約: 表現学習を用いて分類器の性能を向上させることは、非常に重要な研究方向である。
表現学習技術を用いて、生データ(グラフのノード)を低次元の特徴空間にマッピングする。
この空間において、各生データは低次元ベクトル表現を取得し、それらのベクトルに対して簡単な線形演算を行い、仮想データを生成する。
- 参考スコア(独自算出の注目度): 0.966840768820136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recently occurred representation learning make an attractive performance
in NLP and complex network, it is becoming a fundamental technology in machine
learning and data mining. How to use representation learning to improve the
performance of classifiers is a very significance research direction. We using
representation learning technology to map raw data(node of graph) to a
low-dimensional feature space. In this space, each raw data obtained a lower
dimensional vector representation, we do some simple linear operations for
those vectors to produce some virtual data, using those vectors and virtual
data to training multi-tag classifier. After that we measured the performance
of classifier by F1 score(Macro% F1 and Micro% F1). Our method make Macro F1
rise from 28 % - 450% and make average F1 score rise from 12 % - 224%. By
contrast, we trained the classifier directly with the lower dimensional vector,
and measured the performance of classifiers. We validate our algorithm on three
public data sets, we found that the virtual data helped the classifier greatly
improve the F1 score. Therefore, our algorithm is a effective way to improve
the performance of classifier. These result suggest that the virtual data
generated by simple linear operation, in representation space, still retains
the information of the raw data. It's also have great significance to the
learning of small sample data sets.
- Abstract(参考訳): 最近発生した表現学習は、NLPと複雑なネットワークにおいて魅力的なパフォーマンスをもたらし、機械学習とデータマイニングの基盤技術になりつつある。
表現学習を用いて分類器の性能を向上させる方法は非常に重要な研究方向である。
表現学習技術を用いて、生データ(グラフのノード)を低次元の特徴空間にマッピングする。
この空間では、各原データが低次元ベクトル表現を取得し、それらのベクトルが仮想データを生成するための単純な線形演算を行い、それらのベクトルと仮想データを用いてマルチタグ分類器を訓練する。
その後,分類器の性能をF1スコア(マクロ%F1,ミクロ%F1)で測定した。
この方法により,マクロF1は28~450%まで上昇し,平均F1スコアは12~224%まで上昇する。
対照的に,下位次元ベクトルを用いて直接分類器を訓練し,分類器の性能を測定した。
提案アルゴリズムを3つの公開データセット上で検証した結果,仮想データによってF1スコアが大幅に向上することが判明した。
そこで本アルゴリズムは,分類器の性能向上に有効な手法である。
これらの結果は、単純な線形演算によって生成された仮想データは、表現空間において、生データの情報を保持することを示唆している。
また、小さなサンプルデータセットの学習にも大きな意味を持っています。
関連論文リスト
- Leveraging Semi-Supervised Learning to Enhance Data Mining for Image Classification under Limited Labeled Data [35.431340001608476]
従来のデータマイニング手法は、大規模で高次元で複雑なデータに直面すると不十分である。
本研究では,ラベルのないデータを利用するアルゴリズムの能力向上を目的とした,半教師付き学習手法を提案する。
具体的には、自己学習法を採用し、画像の特徴抽出と分類のための畳み込みニューラルネットワーク(CNN)と組み合わせる。
論文 参考訳(メタデータ) (2024-11-27T18:59:50Z) - Verbalized Representation Learning for Interpretable Few-Shot Generalization [130.8173035901391]
Verbalized Representation Learning (VRL)は、オブジェクト認識のための人間の解釈可能な特徴を自動的に抽出する新しいアプローチである。
本手法は,クラス間の差異とクラス内共通点を自然言語形式で把握する。
VRLは従来の最先端手法よりも24%の絶対的な改善を実現している。
論文 参考訳(メタデータ) (2024-11-27T01:55:08Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - CvS: Classification via Segmentation For Small Datasets [52.821178654631254]
本稿では,分類ラベルをセグメントマップの予測から導出する小型データセットのコスト効率の高い分類器であるCvSを提案する。
我々は,CvSが従来の手法よりもはるかに高い分類結果が得られることを示す多種多様な問題に対して,本フレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2021-10-29T18:41:15Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。