論文の概要: ATRM: Attention-based Task-level Relation Module for GNN-based Few-shot
Learning
- arxiv url: http://arxiv.org/abs/2101.09840v1
- Date: Mon, 25 Jan 2021 00:53:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 19:08:27.370584
- Title: ATRM: Attention-based Task-level Relation Module for GNN-based Few-shot
Learning
- Title(参考訳): ATRM:GNNを用いたFew-shot Learningのためのアテンションベースタスクレベル関係モジュール
- Authors: Yurong Guo, Zhanyu Ma, Xiaoxu Li, and Yuan Dong
- Abstract要約: 注目に基づくタスクレベル関係モジュール(ATRM)という新しい関係測定法を提案する。
提案モジュールは,サンプルからサンプルへの埋め込み機能ではなく,サンプルからタスクまでを考慮し,ノード間の関係表現をキャプチャする。
実験結果から,提案モジュールはGNNによる少数ショット学習に有効であることが示された。
- 参考スコア(独自算出の注目度): 14.464964336101028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, graph neural networks (GNNs) have shown powerful ability to handle
few-shot classification problem, which aims at classifying unseen samples when
trained with limited labeled samples per class. GNN-based few-shot learning
architectures mostly replace traditional metric with a learnable GNN. In the
GNN, the nodes are set as the samples embedding, and the relationship between
two connected nodes can be obtained by a network, the input of which is the
difference of their embedding features. We consider this method of measuring
relation of samples only models the sample-to-sample relation, while neglects
the specificity of different tasks. That is, this method of measuring relation
does not take the task-level information into account. To this end, we propose
a new relation measure method, namely the attention-based task-level relation
module (ATRM), to explicitly model the task-level relation of one sample to all
the others. The proposed module captures the relation representations between
nodes by considering the sample-to-task instead of sample-to-sample embedding
features. We conducted extensive experiments on four benchmark datasets:
mini-ImageNet, tiered-ImageNet, CUB-200-2011, and CIFAR-FS. Experimental
results demonstrate that the proposed module is effective for GNN-based
few-shot learning.
- Abstract(参考訳): 近年,グラフニューラルネットワーク(GNN)は,クラスごとのラベル付きサンプルに制限されたトレーニングを行う際に,未知のサンプルを分類することを目的とした,少数ショットの分類問題に対処する強力な能力を示している。
GNNベースの数発の学習アーキテクチャは、主に従来のメトリクスを学習可能なGNNに置き換える。
GNNでは、ノードは埋め込みサンプルとして設定され、2つの接続ノード間の関係はネットワークによって取得され、その入力は埋め込み機能の違いである。
サンプル間の関係を測定する方法はサンプル間関係のみをモデル化するが、異なるタスクの特異性は無視する。
すなわち、この関係を測定する方法は、タスクレベルの情報を考慮に入れない。
そこで本研究では, あるサンプルと他のすべてのサンプルのタスクレベル関係を明示的にモデル化する新しい関係測定法, すなわち注意に基づくタスクレベル関係モジュール (ATRM) を提案する。
提案モジュールは,サンプルからサンプルへの埋め込み機能ではなく,サンプルからタスクまでを考慮し,ノード間の関係表現をキャプチャする。
我々は,4つのベンチマークデータセット(mini-ImageNet, tiered-ImageNet, CUB-200-2011, CIFAR-FS)について広範な実験を行った。
実験結果から,提案モジュールはGNNによる少数ショット学習に有効であることが示された。
関連論文リスト
- Supervised Gradual Machine Learning for Aspect Category Detection [0.9857683394266679]
アスペクトカテゴリー検出(ACD)は、あるレビュー文の中で暗黙的かつ明示的な側面を識別することを目的としている。
本稿では,Deep Neural Networks (DNN) と Gradual Machine Learning (GML) を教師付き環境で組み合わせることで,ACDタスクに取り組む新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-08T07:21:46Z) - Two-level Graph Network for Few-Shot Class-Incremental Learning [7.815043173207539]
FSCIL(Few-shot class-incremental Learning)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムを設計することを目的としている。
既存のFSCILメソッドは、サンプルレベルとクラスレベルの意味関係を無視する。
本稿では,サンプルレベルとクラスレベルグラフニューラルネット(SCGN)というFSCIL用の2レベルグラフネットワークを設計した。
論文 参考訳(メタデータ) (2023-03-24T08:58:08Z) - Compare learning: bi-attention network for few-shot learning [6.559037166322981]
距離学習と呼ばれる数ショットの学習手法の1つは、画像のペアが同じカテゴリに属しているかどうかを判断するために、まず遠距離計量を学習することで、この課題に対処する。
本稿では, インスタンスの埋め込みの類似性を正確に, グローバルかつ効率的に測定できる, Bi-attention Network という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-25T07:39:10Z) - BatchFormer: Learning to Explore Sample Relationships for Robust
Representation Learning [93.38239238988719]
本稿では,各ミニバッチからサンプル関係を学習可能なディープニューラルネットワークを提案する。
BatchFormerは各ミニバッチのバッチ次元に適用され、トレーニング中のサンプル関係を暗黙的に探索する。
我々は10以上のデータセットに対して広範な実験を行い、提案手法は異なるデータ不足アプリケーションにおいて大幅な改善を実現する。
論文 参考訳(メタデータ) (2022-03-03T05:31:33Z) - ECKPN: Explicit Class Knowledge Propagation Network for Transductive
Few-shot Learning [53.09923823663554]
クラスレベルの知識は、ほんの一握りのサンプルから人間が容易に学習することができる。
本稿では,この問題に対処する明示的クラス知識伝達ネットワーク(ECKPN)を提案する。
筆者らは,4つの数ショット分類ベンチマークについて広範な実験を行い,提案したECKPNが最先端の手法よりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2021-06-16T02:29:43Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z) - High-order structure preserving graph neural network for few-shot
learning [10.296473510866228]
メタラーニングの類似度測定により,先行知識とクエリデータとの間の潜在構造情報を見つけることは少ない。
既存の手法のほとんどは、タスク内のサンプルの類似性関係をモデル化し、新しいカテゴリを特定するためにモデルを一般化しようとするものである。
提案した高次構造保存グラフニューラルネットワーク(HOSP-GNN)は,サンプルの豊富な構造を探索し,グラフ上のクエリデータのラベルを予測する。
論文 参考訳(メタデータ) (2020-05-29T06:38:51Z) - Memory-Augmented Relation Network for Few-Shot Learning [114.47866281436829]
本研究では,新しい距離学習手法であるメモリ拡張リレーショナルネットワーク(MRN)について検討する。
MRNでは、作業状況と視覚的に類似したサンプルを選択し、重み付け情報伝搬を行い、選択したサンプルから有用な情報を注意深く集約し、その表現を強化する。
我々は、MRNが祖先よりも大幅に向上し、他の数発の学習手法と比較して、競争力や性能が向上することを示した。
論文 参考訳(メタデータ) (2020-05-09T10:09:13Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。