論文の概要: EEMC: Embedding Enhanced Multi-tag Classification
- arxiv url: http://arxiv.org/abs/2009.13826v1
- Date: Tue, 29 Sep 2020 07:29:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 04:58:46.407519
- Title: EEMC: Embedding Enhanced Multi-tag Classification
- Title(参考訳): eemc:埋め込み型マルチタグ分類
- Authors: Yanlin Li, Shi An, Ruisheng Zhang
- Abstract要約: 表現学習を用いて分類器の性能を向上させることは、非常に重要な研究方向である。
表現学習技術を用いて、生データ(グラフのノード)を低次元の特徴空間にマッピングする。
この空間において、各生データは低次元ベクトル表現を取得し、それらのベクトルに対して簡単な線形演算を行い、仮想データを生成する。
- 参考スコア(独自算出の注目度): 0.966840768820136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recently occurred representation learning make an attractive performance
in NLP and complex network, it is becoming a fundamental technology in machine
learning and data mining. How to use representation learning to improve the
performance of classifiers is a very significance research direction. We using
representation learning technology to map raw data(node of graph) to a
low-dimensional feature space. In this space, each raw data obtained a lower
dimensional vector representation, we do some simple linear operations for
those vectors to produce some virtual data, using those vectors and virtual
data to training multi-tag classifier. After that we measured the performance
of classifier by F1 score(Macro% F1 and Micro% F1). Our method make Macro F1
rise from 28 % - 450% and make average F1 score rise from 12 % - 224%. By
contrast, we trained the classifier directly with the lower dimensional vector,
and measured the performance of classifiers. We validate our algorithm on three
public data sets, we found that the virtual data helped the classifier greatly
improve the F1 score. Therefore, our algorithm is a effective way to improve
the performance of classifier. These result suggest that the virtual data
generated by simple linear operation, in representation space, still retains
the information of the raw data. It's also have great significance to the
learning of small sample data sets.
- Abstract(参考訳): 最近発生した表現学習は、NLPと複雑なネットワークにおいて魅力的なパフォーマンスをもたらし、機械学習とデータマイニングの基盤技術になりつつある。
表現学習を用いて分類器の性能を向上させる方法は非常に重要な研究方向である。
表現学習技術を用いて、生データ(グラフのノード)を低次元の特徴空間にマッピングする。
この空間では、各原データが低次元ベクトル表現を取得し、それらのベクトルが仮想データを生成するための単純な線形演算を行い、それらのベクトルと仮想データを用いてマルチタグ分類器を訓練する。
その後,分類器の性能をF1スコア(マクロ%F1,ミクロ%F1)で測定した。
この方法により,マクロF1は28~450%まで上昇し,平均F1スコアは12~224%まで上昇する。
対照的に,下位次元ベクトルを用いて直接分類器を訓練し,分類器の性能を測定した。
提案アルゴリズムを3つの公開データセット上で検証した結果,仮想データによってF1スコアが大幅に向上することが判明した。
そこで本アルゴリズムは,分類器の性能向上に有効な手法である。
これらの結果は、単純な線形演算によって生成された仮想データは、表現空間において、生データの情報を保持することを示唆している。
また、小さなサンプルデータセットの学習にも大きな意味を持っています。
関連論文リスト
- PILoRA: Prototype Guided Incremental LoRA for Federated Class-Incremental Learning [41.984652077669104]
標準データセットによる実験結果から,本手法は最先端の手法よりも優れていたことが示唆された。
本手法は, 異なる設定, データの均一度において, 強靭性と優越性を示す。
論文 参考訳(メタデータ) (2024-01-04T06:46:19Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Weakly Supervised Change Detection Using Guided Anisotropic Difusion [97.43170678509478]
我々は、このようなデータセットを変更検出の文脈で活用するのに役立つ独自のアイデアを提案する。
まず,意味的セグメンテーション結果を改善する誘導異方性拡散(GAD)アルゴリズムを提案する。
次に、変化検出に適した2つの弱い教師付き学習戦略の可能性を示す。
論文 参考訳(メタデータ) (2021-12-31T10:03:47Z) - MIO : Mutual Information Optimization using Self-Supervised Binary
Contrastive Learning [19.5917119072985]
対が正かどうかを予測するために、比較学習を二項分類問題にモデル化する。
提案手法は,STL-10,CIFAR-10,CIFAR-100などのベンチマークデータセットにおいて,最先端のアルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2021-11-24T17:51:29Z) - CvS: Classification via Segmentation For Small Datasets [52.821178654631254]
本稿では,分類ラベルをセグメントマップの予測から導出する小型データセットのコスト効率の高い分類器であるCvSを提案する。
我々は,CvSが従来の手法よりもはるかに高い分類結果が得られることを示す多種多様な問題に対して,本フレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2021-10-29T18:41:15Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。