論文の概要: Hybrid Graph Neural Networks for Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2112.06538v1
- Date: Mon, 13 Dec 2021 10:20:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 00:51:49.930400
- Title: Hybrid Graph Neural Networks for Few-Shot Learning
- Title(参考訳): 単発学習のためのハイブリッドグラフニューラルネットワーク
- Authors: Tianyuan Yu, Sen He, Yi-Zhe Song, Tao Xiang
- Abstract要約: グラフニューラルネットワーク(GNN)は、数発の学習問題に対処するために使用されている。
帰納的設定の下では、既存のGNNベースのメソッドは競争力が少ない。
本稿では2つのGNN(インスタンスGNNとプロトタイプGNN)からなる新しいハイブリッドGNNモデルを提案する。
- 参考スコア(独自算出の注目度): 85.93495480949079
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) have been used to tackle the few-shot learning
(FSL) problem and shown great potentials under the transductive setting.
However under the inductive setting, existing GNN based methods are less
competitive. This is because they use an instance GNN as a label
propagation/classification module, which is jointly meta-learned with a feature
embedding network. This design is problematic because the classifier needs to
adapt quickly to new tasks while the embedding does not. To overcome this
problem, in this paper we propose a novel hybrid GNN (HGNN) model consisting of
two GNNs, an instance GNN and a prototype GNN. Instead of label propagation,
they act as feature embedding adaptation modules for quick adaptation of the
meta-learned feature embedding to new tasks. Importantly they are designed to
deal with a fundamental yet often neglected challenge in FSL, that is, with
only a handful of shots per class, any few-shot classifier would be sensitive
to badly sampled shots which are either outliers or can cause inter-class
distribution overlapping. %Our two GNNs are designed to address these two types
of poorly sampled few-shots respectively and their complementarity is exploited
in the hybrid GNN model. Extensive experiments show that our HGNN obtains new
state-of-the-art on three FSL benchmarks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、数ショット学習(FSL)問題に対処するために使われ、トランスダクティブ設定の下で大きなポテンシャルを示す。
しかし、誘導的な設定の下では、既存のGNNベースの方法は競争力が少ない。
これは、GNNをラベルの伝搬/分類モジュールとして使用しており、機能埋め込みネットワークと共同でメタ学習されているためである。
この設計は、分類器が埋め込みを行わない間、新しいタスクに迅速に適応する必要があるため、問題となる。
本稿では,2つのGNN(インスタンスGNNとプロトタイプGNN)からなるハイブリッドGNN(HGNN)モデルを提案する。
ラベルの伝搬の代わりに、新しいタスクに埋め込まれたメタ学習機能に素早く適応するための機能埋め込み適応モジュールとして機能する。
重要なことは、FSLの基本的かつしばしば無視される課題に対処するように設計されており、クラス毎のショット数が少ない場合、いくつかのショット分類器は、異常なサンプルショットに敏感である。
%2つのGNNは,これら2種類の低サンプリング数ショットにそれぞれ対処するよう設計されており,その相補性をハイブリッドGNNモデルに利用している。
広範な実験により,3つのfslベンチマークでhgnnが新たな最先端技術を得た。
関連論文リスト
- E2GNN: Efficient Graph Neural Network Ensembles for Semi-Supervised Classification [30.55931541782854]
本研究では、グラフニューラルネットワーク(GNN)のアンサンブル学習を、人気のある半教師付き環境下で研究する。
ラベル付きノードとラベルなしノードの両方を活用することで,複数のGNNを学習可能な方法で組み立てる,効率的なアンサンブル学習者を提案する。
さまざまなGNNバックボーンと8つのベンチマークデータセットにまたがる、トランスダクティブとインダクティブ両方の設定に関する包括的な実験は、E2GNNの優位性を実証している。
論文 参考訳(メタデータ) (2024-05-06T12:11:46Z) - CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Multicoated and Folded Graph Neural Networks with Strong Lottery Tickets [3.0894823679470087]
本稿では,アーキテクチャとパラメータの両面から検索空間を拡張するためのマルチステージ・フォールディング法とアンシャレッド・マスク法を提案する。
高空間性、競争性能、高メモリ効率を最大98.7%の削減で達成することにより、エネルギー効率の高いグラフ処理に適していることを示す。
論文 参考訳(メタデータ) (2023-12-06T02:16:44Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - Distributed Graph Neural Network Training: A Survey [51.77035975191926]
グラフニューラルネットワーク(GNN)は、グラフに基づいてトレーニングされたディープラーニングモデルの一種で、さまざまな領域にうまく適用されている。
GNNの有効性にもかかわらず、GNNが大規模グラフに効率的にスケールすることは依然として困難である。
治療法として、分散コンピューティングは大規模GNNをトレーニングするための有望なソリューションとなる。
論文 参考訳(メタデータ) (2022-11-01T01:57:00Z) - Attentive Graph Neural Networks for Few-Shot Learning [74.01069516079379]
グラフニューラルネットワーク(GNN)は、数ショットの学習タスクを含む多くの困難なアプリケーションにおいて、優れたパフォーマンスを示している。
少数のサンプルからモデルを学習し、一般化する能力があるにもかかわらず、GNNは通常、モデルが深くなるにつれて、過度な過度な適合と過度なスムーシングに悩まされる。
本稿では,三重注意機構を組み込むことにより,これらの課題に対処するための新しい注意型GNNを提案する。
論文 参考訳(メタデータ) (2020-07-14T07:43:09Z) - Self-Enhanced GNN: Improving Graph Neural Networks Using Model Outputs [20.197085398581397]
グラフニューラルネットワーク(GNN)は最近、グラフベースのタスクにおける優れたパフォーマンスのために、多くの注目を集めている。
本稿では,既存のGNNモデルの出力を用いて,入力データの品質を向上させる自己強化型GNN(SEG)を提案する。
SEGは、GCN、GAT、SGCといったよく知られたGNNモデルのさまざまなデータセットのパフォーマンスを一貫して改善する。
論文 参考訳(メタデータ) (2020-02-18T12:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。