論文の概要: High-order structure preserving graph neural network for few-shot
learning
- arxiv url: http://arxiv.org/abs/2005.14415v1
- Date: Fri, 29 May 2020 06:38:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 22:54:32.168854
- Title: High-order structure preserving graph neural network for few-shot
learning
- Title(参考訳): 数ショット学習のための高次構造保存グラフニューラルネットワーク
- Authors: Guangfeng Lin, Ying Yang, Yindi Fan, Xiaobing Kang, Kaiyang Liao, and
Fan Zhao
- Abstract要約: メタラーニングの類似度測定により,先行知識とクエリデータとの間の潜在構造情報を見つけることは少ない。
既存の手法のほとんどは、タスク内のサンプルの類似性関係をモデル化し、新しいカテゴリを特定するためにモデルを一般化しようとするものである。
提案した高次構造保存グラフニューラルネットワーク(HOSP-GNN)は,サンプルの豊富な構造を探索し,グラフ上のクエリデータのラベルを予測する。
- 参考スコア(独自算出の注目度): 10.296473510866228
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Few-shot learning can find the latent structure information between the prior
knowledge and the queried data by the similarity metric of meta-learning to
construct the discriminative model for recognizing the new categories with the
rare labeled samples. Most existing methods try to model the similarity
relationship of the samples in the intra tasks, and generalize the model to
identify the new categories. However, the relationship of samples between the
separated tasks is difficultly considered because of the different metric
criterion in the respective tasks. In contrast, the proposed high-order
structure preserving graph neural network(HOSP-GNN) can further explore the
rich structure of the samples to predict the label of the queried data on graph
that enables the structure evolution to explicitly discriminate the categories
by iteratively updating the high-order structure relationship (the relative
metric in multi-samples,instead of pairwise sample metric) with the manifold
structure constraints. HOSP-GNN can not only mine the high-order structure for
complementing the relevance between samples that may be divided into the
different task in meta-learning, and but also generate the rule of the
structure updating by manifold constraint. Furthermore, HOSP-GNN doesn't need
retrain the learning model for recognizing the new classes, and HOSP-GNN has
the well-generalizable high-order structure for model adaptability. Experiments
show that HOSP-GNN outperforms the state-of-the-art methods on supervised and
semi-supervised few-shot learning in three benchmark datasets that are
miniImageNet, tieredImageNet and FC100.
- Abstract(参考訳): メタラーニングの類似度尺度を用いて,先行知識とクエリーデータの間の潜在構造情報を抽出し,希少なラベル付きサンプルを用いて新たなカテゴリを認識する識別モデルを構築する。
既存の手法の多くは、タスク内のサンプルの類似関係をモデル化し、新しいカテゴリを特定するためにモデルを一般化しようとする。
しかし,各タスクにおける測定基準が異なるため,分離されたタスク間のサンプルの関係は困難である。
これとは対照的に,提案した高次構造保存グラフニューラルネットワーク(HOSP-GNN)は,高次構造関係(複数サンプルの相対測定値)を多様体構造制約と反復的に更新することにより,グラフ上のクエリーデータのラベルを予測するために,サンプルのリッチな構造をさらに探求することができる。
HOSP-GNNは、メタラーニングにおいて異なるタスクに分けられるサンプル間の関連性を補完する高次構造をマイニングするだけでなく、多様体制約によって更新される構造規則を生成することができる。
さらに、HOSP-GNNは新しいクラスを認識するために学習モデルを再訓練する必要はない。
実験の結果,HOSP-GNNは miniImageNet, tieredImageNet, FC100 の3つのベンチマークデータセットにおいて,教師付きおよび半教師付き小ショット学習における最先端の手法よりも優れていた。
関連論文リスト
- Subgraph Clustering and Atom Learning for Improved Image Classification [4.499833362998488]
本稿では,特徴抽出のための畳み込みニューラルネットワーク(CNN)と構造モデリングのためのグラフニューラルネットワーク(GNN)の長所を融合した,新しいハイブリッド画像分類モデルであるグラフサブグラフネットワーク(GSN)を提案する。
GSNはk平均クラスタリングを使用してグラフノードをクラスタにグループ化し、サブグラフの作成を容易にする。
これらの部分グラフを使用して、辞書学習のための代表原子を学習し、スパースでクラス区別可能な特徴の識別を可能にする。
論文 参考訳(メタデータ) (2024-07-20T06:32:00Z) - Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization [58.68231635082891]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:36:56Z) - Class-level Structural Relation Modelling and Smoothing for Visual
Representation Learning [12.247343963572732]
本稿では、視覚表現学習のためのbfクラスレベルの構造関係モデリングと平滑化というフレームワークを提案する。
クラスレベルの関係モデリング、クラス対応グラフガイドサンプリング、グラフガイド表現学習モジュールが含まれる。
実験では、構造化知識モデリングによる表現学習の有効性を実証し、CSRMSを任意の最先端の視覚的表現学習モデルに組み込むことにより、パフォーマンス向上を図っている。
論文 参考訳(メタデータ) (2023-08-08T09:03:46Z) - Multi-Scale Semantics-Guided Neural Networks for Efficient
Skeleton-Based Human Action Recognition [140.18376685167857]
スケルトンに基づく行動認識には,単純なマルチスケールセマンティクス誘導ニューラルネットワークが提案されている。
MS-SGNは、NTU60、NTU120、SYSUデータセットの最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-11-07T03:50:50Z) - Pareto-wise Ranking Classifier for Multi-objective Evolutionary Neural
Architecture Search [15.454709248397208]
本研究は,多様な設計目的の下で実現可能な深層モデルを見つける方法に焦点を当てる。
オンライン分類器を訓練し、候補と構築された参照アーキテクチャとの優位性関係を予測する。
さまざまな目的や制約の下で、2Mから6Mまでの異なるモデルサイズを持つ多数のニューラルアーキテクチャを見つけます。
論文 参考訳(メタデータ) (2021-09-14T13:28:07Z) - Learning Hierarchical Graph Neural Networks for Image Clustering [81.5841862489509]
本稿では,画像の集合を未知の個数にクラスタリングする方法を学ぶ階層型グラフニューラルネットワーク(GNN)モデルを提案する。
我々の階層的なGNNは、階層の各レベルで予測される連結コンポーネントをマージして、次のレベルで新しいグラフを形成するために、新しいアプローチを用いています。
論文 参考訳(メタデータ) (2021-07-03T01:28:42Z) - Redefining Neural Architecture Search of Heterogeneous Multi-Network
Models by Characterizing Variation Operators and Model Components [71.03032589756434]
複素領域における異なる変動演算子の効果について検討する。
モデルの複雑さと性能に影響を及ぼす変化演算子と、それを構成する異なる部分の質を推定する様々な指標に依存するモデルの両方を特徴付ける。
論文 参考訳(メタデータ) (2021-06-16T17:12:26Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - ATRM: Attention-based Task-level Relation Module for GNN-based Few-shot
Learning [14.464964336101028]
注目に基づくタスクレベル関係モジュール(ATRM)という新しい関係測定法を提案する。
提案モジュールは,サンプルからサンプルへの埋め込み機能ではなく,サンプルからタスクまでを考慮し,ノード間の関係表現をキャプチャする。
実験結果から,提案モジュールはGNNによる少数ショット学習に有効であることが示された。
論文 参考訳(メタデータ) (2021-01-25T00:53:04Z) - Evolutionary Architecture Search for Graph Neural Networks [23.691915813153496]
本稿では,大規模グラフニューラルネットワーク(GNN)アーキテクチャ空間における個々のモデルの進化を通じて,新しいAutoMLフレームワークを提案する。
我々の知る限りでは、GNNモデルの進化的アーキテクチャ探索を導入し、評価する最初の試みである。
論文 参考訳(メタデータ) (2020-09-21T22:11:53Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。