論文の概要: GCT: Graph Co-Training for Semi-Supervised Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2203.07738v4
- Date: Tue, 19 Mar 2024 16:03:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 02:10:44.795170
- Title: GCT: Graph Co-Training for Semi-Supervised Few-Shot Learning
- Title(参考訳): GCT:半教師付きFew-Shot学習のためのグラフ共同学習
- Authors: Rui Xu, Lei Xing, Shuai Shao, Lifei Zhao, Baodi Liu, Weifeng Liu, Yicong Zhou,
- Abstract要約: 新たなラベル予測手法である孤立グラフ学習(IGL)を提案する。
IGLでは、生データをグラフ空間にエンコードするLaplacian演算子を導入している。
第2に,マルチモーダル融合の観点から,この課題に対処するためのグラフコライニング(GCT)を提案する。
- 参考スコア(独自算出の注目度): 46.07923908746946
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot learning (FSL), purposing to resolve the problem of data-scarce, has attracted considerable attention in recent years. A popular FSL framework contains two phases: (i) the pre-train phase employs the base data to train a CNN-based feature extractor. (ii) the meta-test phase applies the frozen feature extractor to novel data (novel data has different categories from base data) and designs a classifier for recognition. To correct few-shot data distribution, researchers propose Semi-Supervised Few-Shot Learning (SSFSL) by introducing unlabeled data. Although SSFSL has been proved to achieve outstanding performances in the FSL community, there still exists a fundamental problem: the pre-trained feature extractor can not adapt to the novel data flawlessly due to the cross-category setting. Usually, large amounts of noises are introduced to the novel feature. We dub it as Feature-Extractor-Maladaptive (FEM) problem. To tackle FEM, we make two efforts in this paper. First, we propose a novel label prediction method, Isolated Graph Learning (IGL). IGL introduces the Laplacian operator to encode the raw data to graph space, which helps reduce the dependence on features when classifying, and then project graph representation to label space for prediction. The key point is that: IGL can weaken the negative influence of noise from the feature representation perspective, and is also flexible to independently complete training and testing procedures, which is suitable for SSFSL. Second, we propose Graph Co-Training (GCT) to tackle this challenge from a multi-modal fusion perspective by extending the proposed IGL to the co-training framework. GCT is a semi-supervised method that exploits the unlabeled samples with two modal features to crossly strengthen the IGL classifier.
- Abstract(参考訳): 近年,データスカース問題の解決を目的としたFSL (Few-shot Learning) が注目されている。
一般的なFSLフレームワークには2つのフェーズがある。
i)プレトレインフェーズは、ベースデータを用いてCNNベースの特徴抽出器を訓練する。
(II) メタテストフェーズでは, 凍結特徴抽出器を新しいデータに適用し, 認識のための分類器を設計する。
少ないショットデータ分布を補正するために、研究者はラベルなしデータを導入してSSFSL(Semi-Supervised Few-Shot Learning)を提案する。
SSFSL は FSL コミュニティにおいて優れた性能を発揮することが証明されているが、未学習の特徴抽出器はクロスカテゴリ設定のため、新しいデータに不完全に対応できないという根本的な問題がある。
通常、新しい特徴に大量のノイズが導入される。
FEM(Feature-Extractor-Maladaptive)問題と呼ぶ。
FEMに取り組むために,本稿では2つの取り組みを行う。
まず,新しいラベル予測手法である孤立グラフ学習(IGL)を提案する。
IGLは、生データをグラフ空間にエンコードするラプラシアン演算子を導入し、分類時の特徴への依存を減らし、予測のためにラベル空間にグラフ表現を投影する。
IGLは特徴表現の観点からノイズの負の影響を弱めることができ、SSFSLに適した独立した訓練や試験手順にも柔軟である。
第2に,提案したIGLを協調学習フレームワークに拡張することにより,マルチモーダル融合の観点から,この課題に対処するグラフコレーニング(GCT)を提案する。
GCTは、IGL分類器を横断的に強化するために、2つのモーダル特徴を持つラベル付きサンプルを利用する半教師付き手法である。
関連論文リスト
- ZeroG: Investigating Cross-dataset Zero-shot Transferability in Graphs [36.749959232724514]
ZeroGは、クロスデータセットの一般化を可能にするために設計された新しいフレームワークである。
特徴の不整合、ラベル空間の整合、負の移動といった、固有の課題に対処する。
本稿では,抽出したサブグラフの意味情報と構造情報を豊かにするための,プロンプトベースのサブグラフサンプリングモジュールを提案する。
論文 参考訳(メタデータ) (2024-02-17T09:52:43Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - A Strong Baseline for Semi-Supervised Incremental Few-Shot Learning [54.617688468341704]
少ないショット学習は、限られたトレーニングサンプルを持つ新しいクラスに一般化するモデルを学ぶことを目的としている。
本研究では,(1)信頼できない擬似ラベルによる基本クラスと新クラスのあいまいさを緩和する高度に設計されたメタトレーニングアルゴリズム,(2)ラベルの少ないデータとラベルなしデータを用いて基礎知識を保ちながら,新クラスの識別的特徴を学習するモデル適応機構を提案する。
論文 参考訳(メタデータ) (2021-10-21T13:25:52Z) - MHFC: Multi-Head Feature Collaboration for Few-Shot Learning [17.699793591135904]
少ないショットラーニングは、データスカース問題に対処することを目的としている。
本稿では,マルチヘッド特徴を統一空間に投影しようとするマルチヘッド特徴協調(MHFC)アルゴリズムを提案する。
提案手法を5つのベンチマークデータセットで評価し,最新技術と比較して2.1%-7.8%の大幅な改善を実現した。
論文 参考訳(メタデータ) (2021-09-16T08:09:35Z) - Federated Graph Learning -- A Position Paper [36.424411232612606]
フェデレートラーニング(FL)は、データを分散化しながら共有モデルを協調的にトレーニングできる新興技術である。
これをFGL(Federated Graph Learning)と呼ぶ。
クライアント間でグラフデータを分散する方法を考慮し、グラフ間FL、グラフ内FL、グラフ構造化FLの4種類のFGLを提案する。
論文 参考訳(メタデータ) (2021-05-24T05:39:24Z) - Revisiting Few-shot Relation Classification: Evaluation Data and
Classification Schemes [57.34346419239118]
教師付きRC用データセットから,より現実的な数ショットテストデータを得るための新しい手法を提案する。
これにより、FSL RCの新たな挑戦的なベンチマークが得られ、その上で、アートモデルの状態はパフォーマンスの低下を示している。
そこで我々はNOTAカテゴリを学習ベクトルとして表現する新しい分類手法を提案する。
論文 参考訳(メタデータ) (2021-04-17T08:16:49Z) - PTN: A Poisson Transfer Network for Semi-supervised Few-shot Learning [21.170726615606185]
半教師付き小ショット学習のためのラベルのない情報をマイニングするためのPoisson Transfer Network (PTN)を提案する。
提案手法は,少数のラベル付きデータに対する過剰フィッティング問題を軽減するために,新規クラスの埋め込みを暗黙的に学習する。
論文 参考訳(メタデータ) (2020-12-20T04:44:37Z) - Hybrid Consistency Training with Prototype Adaptation for Few-Shot
Learning [11.873143649261362]
Few-Shot Learningは、低データ構造におけるモデルの一般化能力を改善することを目的としている。
近年のFSL研究は,メートル法学習,メタラーニング,表現学習などを通じて着実に進展している。
論文 参考訳(メタデータ) (2020-11-19T19:51:33Z) - Information Bottleneck Constrained Latent Bidirectional Embedding for
Zero-Shot Learning [59.58381904522967]
本稿では,密な視覚-意味的結合制約を持つ埋め込み型生成モデルを提案する。
視覚空間と意味空間の両方の埋め込みパラメトリック分布を校正する統合潜在空間を学習する。
本手法は, 画像のラベルを生成することにより, トランスダクティブZSL設定に容易に拡張できる。
論文 参考訳(メタデータ) (2020-09-16T03:54:12Z) - Contrastive and Generative Graph Convolutional Networks for Graph-based
Semi-Supervised Learning [64.98816284854067]
グラフベースのSemi-Supervised Learning (SSL)は、少数のラベル付きデータのラベルをグラフ経由で残りの巨大なラベル付きデータに転送することを目的としている。
本稿では,データ類似性とグラフ構造を両立させ,監視信号の強化を図るため,新しいGCNベースのSSLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-15T13:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。