論文の概要: Attentive Graph Neural Networks for Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2007.06878v2
- Date: Fri, 2 Oct 2020 13:08:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 13:49:34.646913
- Title: Attentive Graph Neural Networks for Few-Shot Learning
- Title(参考訳): ファウショット学習のための注意グラフニューラルネットワーク
- Authors: Hao Cheng, Joey Tianyi Zhou, Wee Peng Tay and Bihan Wen
- Abstract要約: グラフニューラルネットワーク(GNN)は、数ショットの学習タスクを含む多くの困難なアプリケーションにおいて、優れたパフォーマンスを示している。
少数のサンプルからモデルを学習し、一般化する能力があるにもかかわらず、GNNは通常、モデルが深くなるにつれて、過度な過度な適合と過度なスムーシングに悩まされる。
本稿では,三重注意機構を組み込むことにより,これらの課題に対処するための新しい注意型GNNを提案する。
- 参考スコア(独自算出の注目度): 74.01069516079379
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNN) has demonstrated the superior performance in many
challenging applications, including the few-shot learning tasks. Despite its
powerful capacity to learn and generalize the model from few samples, GNN
usually suffers from severe over-fitting and over-smoothing as the model
becomes deep, which limit the scalability. In this work, we propose a novel
Attentive GNN to tackle these challenges, by incorporating a triple-attention
mechanism, i.e. node self-attention, neighborhood attention, and layer memory
attention. We explain why the proposed attentive modules can improve GNN for
few-shot learning with theoretical analysis and illustrations. Extensive
experiments show that the proposed Attentive GNN model achieves the promising
results, comparing to the state-of-the-art GNN- and CNN-based methods for
few-shot learning tasks, over the mini-ImageNet and tiered-ImageNet benchmarks,
under ConvNet-4 and ResNet-based backbone with both inductive and transductive
settings. The codes will be made publicly available.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、数ショットの学習タスクを含む多くの困難なアプリケーションにおいて、優れたパフォーマンスを示している。
少数のサンプルからモデルを学習し、一般化する能力があるにも関わらず、gnnは通常、モデルが深くなり、過度な過剰フィッティングと過剰スムーシングに苦しめられ、スケーラビリティが制限される。
本研究では,ノードの自己注意,近傍の注意,層記憶の注意といった3つの注意機構を組み込むことにより,これらの課題に対処する新しい注意型GNNを提案する。
提案手法は,理論解析と図解を用いた数ショット学習において,GNNを改善できる理由を説明する。
拡張実験の結果,提案したAttentive GNNモデルは,ConvNet-4とResNetベースのバックボーンをインダクティブとトランスダクティブの両設定で,mini-ImageNetとtyred-ImageNetベンチマークを用いて,最先端のGNNとCNNベースの数ショット学習タスクと比較することにより,有望な結果が得られることがわかった。
コードは公開される予定だ。
関連論文リスト
- CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Information Flow in Graph Neural Networks: A Clinical Triage Use Case [49.86931948849343]
グラフニューラルネットワーク(GNN)は、マルチモーダルグラフとマルチリレーショナルグラフを処理する能力によって、医療やその他の領域で人気を集めている。
GNNにおける埋め込み情報のフローが知識グラフ(KG)におけるリンクの予測に与える影響について検討する。
以上の結果から,ドメイン知識をGNN接続に組み込むことで,KGと同じ接続を使用する場合や,制約のない埋め込み伝搬を行う場合よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-09-12T09:18:12Z) - LazyGNN: Large-Scale Graph Neural Networks via Lazy Propagation [51.552170474958736]
グラフ表現学習においてより効率的なモデルであるLazyGNNを実現するために,より深いモデルではなく,より浅いモデルによってグラフの長距離依存性をキャプチャすることを提案する。
LazyGNNは、ミニバッチのLazyGNNの開発を通じてさらに加速するために、既存のスケーラブルなアプローチ(サンプリング方法など)と互換性がある。
総合的な実験は、大規模なベンチマークで優れた予測性能とスケーラビリティを示す。
論文 参考訳(メタデータ) (2023-02-03T02:33:07Z) - Understanding and Improving Deep Graph Neural Networks: A Probabilistic
Graphical Model Perspective [22.82625446308785]
グラフニューラルネットワーク(GNN)の理解のための新しい視点を提案する。
本研究では,深いGNNに着目し,その理解のための新しい視点を提案する。
我々はより強力なGNN:結合グラフニューラルネットワーク(CoGNet)を設計する。
論文 参考訳(メタデータ) (2023-01-25T12:02:12Z) - Addressing Over-Smoothing in Graph Neural Networks via Deep Supervision [13.180922099929765]
ディープグラフニューラルネットワーク(GNN)は、層数が増加すると過度に滑らかになる。
本研究では,すべての層で学習した表現を訓練に利用するDSGNNを提案する。
DSGNNは過度に平滑であり,ノードおよびグラフ特性予測問題における競合ベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-25T06:05:55Z) - IGNNITION: Bridging the Gap Between Graph Neural Networks and Networking
Systems [4.1591055164123665]
本稿では,ネットワークシステムのためのグラフニューラルネットワーク(GNN)の高速プロトタイピングを可能にする,新しいオープンソースフレームワークIGNNITIONを提案する。
IGNNITIONは、GNNの背後にある複雑さを隠す直感的な高レベルの抽象化に基づいている。
IGNNITIONが生成するGNNモデルは,ネイティブ実装の精度と性能の点で同等であることを示す。
論文 参考訳(メタデータ) (2021-09-14T14:28:21Z) - GNNLens: A Visual Analytics Approach for Prediction Error Diagnosis of
Graph Neural Networks [42.222552078920216]
Graph Neural Networks(GNN)は、ディープラーニング技術をグラフデータに拡張することを目的としている。
GNNは、モデル開発者やユーザから詳細を隠したブラックボックスのように振る舞う。
したがって、GNNの潜在的なエラーを診断することは困難である。
本稿では,対話型視覚分析ツールGNNLensで研究ギャップを埋め,モデル開発者やユーザによるGNNの理解と分析を支援する。
論文 参考訳(メタデータ) (2020-11-22T16:09:08Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - A Survey on The Expressive Power of Graph Neural Networks [6.09170287691728]
グラフニューラルネットワーク(GNN)は、様々なグラフ学習問題に対して効果的な機械学習モデルである。
彼らの経験的成功にもかかわらず、GNNの理論的限界が最近明らかにされている。
我々は、GNNの表現力と証明可能なGNNの強力な変種を包括的に概説する。
論文 参考訳(メタデータ) (2020-03-09T12:37:40Z) - Efficient Probabilistic Logic Reasoning with Graph Neural Networks [63.099999467118245]
マルコフ論理ネットワーク(MLN)は、多くの知識グラフ問題に対処するために用いられる。
MLNの推論は計算集約的であり、MLNの産業規模での応用は非常に困難である。
本稿では,表現力とモデルの単純さとのバランスのよいグラフニューラルネット(GNN)モデルであるExpressGNNを提案する。
論文 参考訳(メタデータ) (2020-01-29T23:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。