論文の概要: Supertagging Combinatory Categorial Grammar with Attentive Graph
Convolutional Networks
- arxiv url: http://arxiv.org/abs/2010.06115v2
- Date: Wed, 18 Nov 2020 05:46:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 23:30:44.631031
- Title: Supertagging Combinatory Categorial Grammar with Attentive Graph
Convolutional Networks
- Title(参考訳): Attentive Graph Convolutional Networksを用いたSupertagging Combinatoryカテゴリ文法
- Authors: Yuanhe Tian, Yan Song, Fei Xia
- Abstract要約: そこで我々は,文脈情報を活用する新しい手法により,ニューラルネットワークのCCGスーパータグ付けを強化するため,注意グラフ畳み込みネットワークを提案する。
CCGbankで行った実験は、我々のアプローチがスーパータグとパーシングの両方で過去のすべての研究より優れていることを示した。
- 参考スコア(独自算出の注目度): 34.74687603029737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supertagging is conventionally regarded as an important task for combinatory
categorial grammar (CCG) parsing, where effective modeling of contextual
information is highly important to this task. However, existing studies have
made limited efforts to leverage contextual features except for applying
powerful encoders (e.g., bi-LSTM). In this paper, we propose attentive graph
convolutional networks to enhance neural CCG supertagging through a novel
solution of leveraging contextual information. Specifically, we build the graph
from chunks (n-grams) extracted from a lexicon and apply attention over the
graph, so that different word pairs from the contexts within and across chunks
are weighted in the model and facilitate the supertagging accordingly. The
experiments performed on the CCGbank demonstrate that our approach outperforms
all previous studies in terms of both supertagging and parsing. Further
analyses illustrate the effectiveness of each component in our approach to
discriminatively learn from word pairs to enhance CCG supertagging.
- Abstract(参考訳): スーパータギングは従来,文脈情報の効果的なモデリングが極めて重要である,組合せ分類文法(CCG)解析における重要なタスクとみなされてきた。
しかし、既存の研究では、強力なエンコーダ(bi-LSTMなど)を応用することを除いて、文脈的特徴を活用する努力が限られている。
本稿では,文脈情報を活用する新しい手法により,ニューラルネットワークのCCGスーパータグ付けを向上するための注意グラフ畳み込みネットワークを提案する。
具体的には、レキシコンから抽出したチャンク(n-gram)からグラフを構築し、グラフに注意を向け、チャンク内外のコンテキストから異なる単語対を重み付けし、それに応じてスーパータグ付けを容易にする。
CCGbankで行った実験は、我々のアプローチがスーパータグとパーシングの両方で過去のすべての研究より優れていることを示した。
さらに, 単語ペアから識別的に学習し, CCGスーパータグ付けを強化する手法における各コンポーネントの有効性を考察した。
関連論文リスト
- SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - ConGraT: Self-Supervised Contrastive Pretraining for Joint Graph and Text Embeddings [20.25180279903009]
テキスト分散グラフ(TAG)におけるテキストとノードの分離表現を共同学習するためのContrastive Graph-Text Pretraining(ConGraT)を提案する。
提案手法は言語モデル(LM)とグラフニューラルネットワーク(GNN)を訓練し,CLIPにインスパイアされたバッチワイドコントラスト学習目標を用いて,それらの表現を共通の潜在空間に整列させる。
実験により、ConGraTは、ノードとテキストのカテゴリ分類、リンク予測、言語モデリングなど、さまざまな下流タスクのベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-23T17:53:30Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Stacked Hybrid-Attention and Group Collaborative Learning for Unbiased
Scene Graph Generation [62.96628432641806]
Scene Graph Generationは、まず与えられた画像内の視覚的コンテンツをエンコードし、次にそれらをコンパクトな要約グラフに解析することを目的としている。
まず,モーダル内改良とモーダル間相互作用を容易にする新しいスタック型ハイブリッド・アテンションネットワークを提案する。
次に、デコーダを最適化するための革新的なグループ協調学習戦略を考案する。
論文 参考訳(メタデータ) (2022-03-18T09:14:13Z) - Joint Graph Learning and Matching for Semantic Feature Correspondence [69.71998282148762]
本稿では,グラフマッチングを向上するための信頼度の高いグラフ構造を探索するために,GLAMという共用電子グラフ学習とマッチングネットワークを提案する。
提案手法は,3つの人気ビジュアルマッチングベンチマーク (Pascal VOC, Willow Object, SPair-71k) で評価される。
すべてのベンチマークにおいて、従来の最先端のグラフマッチング手法よりも大きなマージンを達成している。
論文 参考訳(メタデータ) (2021-09-01T08:24:02Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Structure-Augmented Text Representation Learning for Efficient Knowledge
Graph Completion [53.31911669146451]
人為的な知識グラフは、様々な自然言語処理タスクに重要な支援情報を提供する。
これらのグラフは通常不完全であり、自動補完を促す。
グラフ埋め込みアプローチ(例えばTransE)は、グラフ要素を密度の高い埋め込みに表現することで構造化された知識を学ぶ。
テキストエンコーディングアプローチ(KG-BERTなど)は、グラフトリプルのテキストとトリプルレベルの文脈化表現を利用する。
論文 参考訳(メタデータ) (2020-04-30T13:50:34Z) - Gossip and Attend: Context-Sensitive Graph Representation Learning [0.5493410630077189]
グラフ表現学習(GRL)は、高次元かつしばしばスパースグラフの低次元ベクトル表現を学習する強力な手法である。
本稿では,Gossip通信にインスパイアされた文脈依存型アルゴリズムGOATと,グラフの構造上の相互注意機構を提案する。
論文 参考訳(メタデータ) (2020-03-30T18:23:26Z) - Adaptive Graph Convolutional Network with Attention Graph Clustering for
Co-saliency Detection [35.23956785670788]
注目グラフクラスタリング(GCAGC)を用いた新しい適応グラフ畳み込みネットワークを提案する。
注意グラフクラスタリングアルゴリズムを開発し、教師なしの方法で全前景オブジェクトから共通オブジェクトを識別する。
提案手法を3つのコサリエンシ検出ベンチマークデータセット上で評価した。
論文 参考訳(メタデータ) (2020-03-13T09:35:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。