論文の概要: Rethinking Relation Classification with Graph Meaning Representations
- arxiv url: http://arxiv.org/abs/2310.09772v2
- Date: Thu, 28 Dec 2023 02:57:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 22:13:08.695554
- Title: Rethinking Relation Classification with Graph Meaning Representations
- Title(参考訳): グラフ意味表現を用いた関係分類の再考
- Authors: Li Zhou, Wenyu Chen, Dingyi Zeng, Malu Zhang, Daniel Hershcovich
- Abstract要約: 構造情報伝達から文脈表現学習を分離するために設計された,単純かつパラメータ効率のよいニューラルアーキテクチャであるDAGNN-plusを導入する。
実験分析では,4つのグラフ形式と9つのグラフ形式を用いて,GMRの微妙な理解を導き,4つのデータセットのうち3つの改善点を示す。
- 参考スコア(独自算出の注目度): 26.45980744825173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the field of natural language understanding, the intersection of neural
models and graph meaning representations (GMRs) remains a compelling area of
research. Despite the growing interest, a critical gap persists in
understanding the exact influence of GMRs, particularly concerning relation
extraction tasks. Addressing this, we introduce DAGNN-plus, a simple and
parameter-efficient neural architecture designed to decouple contextual
representation learning from structural information propagation. Coupled with
various sequence encoders and GMRs, this architecture provides a foundation for
systematic experimentation on two English and two Chinese datasets. Our
empirical analysis utilizes four different graph formalisms and nine parsers.
The results yield a nuanced understanding of GMRs, showing improvements in
three out of the four datasets, particularly favoring English over Chinese due
to highly accurate parsers. Interestingly, GMRs appear less effective in
literary-domain datasets compared to general-domain datasets. These findings
lay the groundwork for better-informed design of GMRs and parsers to improve
relation classification, which is expected to tangibly impact the future
trajectory of natural language understanding research.
- Abstract(参考訳): 自然言語理解の分野では、ニューラルモデルとグラフの意味表現(GMR)の交わりは、依然として魅力的な研究分野である。
関心の高まりにもかかわらず、GMRの正確な影響、特に関係抽出タスクの理解において重要なギャップが持続する。
そこで本研究では,文脈表現学習と構造情報伝達を分離した,シンプルでパラメータ効率のよいニューラルネットワークdagnn-plusを提案する。
様々なシーケンスエンコーダとGMRを組み合わせることで、このアーキテクチャは2つの英語と2つの中国語データセットの体系的な実験の基礎を提供する。
実験分析では4つの異なるグラフ形式と9つのパーサを用いる。
その結果、GMRの微妙な理解が得られ、4つのデータセットのうち3つの改善が示されている。
興味深いことに、GMRは汎用ドメインデータセットに比べて文学ドメインデータセットでは効果が低いように見える。
これらの知見は、自然言語理解研究の今後の軌道に接するであろう関係分類を改善するためのgmrとパーサーのより良いインフォームド設計の土台となる。
関連論文リスト
- Introducing Diminutive Causal Structure into Graph Representation Learning [19.132025125620274]
本稿では,グラフニューラルネット(GNN)が専門的な最小の因果構造から洞察を得ることを可能にする新しい手法を提案する。
本手法は,これらの小型因果構造のモデル表現から因果知識を抽出する。
論文 参考訳(メタデータ) (2024-06-13T00:18:20Z) - G-SAP: Graph-based Structure-Aware Prompt Learning over Heterogeneous Knowledge for Commonsense Reasoning [8.02547453169677]
本稿では,G-SAP という名称のコモンセンス推論のためのグラフベース構造認識プロンプト学習モデルを提案する。
特にエビデンスグラフは、ConceptNet、Wikipedia、Cambridge Dictionaryといった複数の知識ソースを統合することで構築される。
その結果、既存のモデル、特にOpenbookQAデータセット上のSoTA LM+GNNsモデルよりも6.12%改善された。
論文 参考訳(メタデータ) (2024-05-09T08:28:12Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Graph-level Protein Representation Learning by Structure Knowledge
Refinement [50.775264276189695]
本稿では、教師なしの方法でグラフ全体の表現を学習することに焦点を当てる。
本稿では、データ構造を用いて、ペアが正か負かの確率を決定する構造知識精製(Structure Knowledge Refinement, SKR)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-05T09:05:33Z) - On Discprecncies between Perturbation Evaluations of Graph Neural
Network Attributions [49.8110352174327]
我々は、グラフ領域で以前に検討されていない視点から帰属法を評価する:再学習。
中心となる考え方は、属性によって識別される重要な(あるいは重要でない)関係でネットワークを再訓練することである。
我々は4つの最先端GNN属性法と5つの合成および実世界のグラフ分類データセットについて分析を行った。
論文 参考訳(メタデータ) (2024-01-01T02:03:35Z) - A Knowledge-Enhanced Adversarial Model for Cross-lingual Structured
Sentiment Analysis [31.05169054736711]
言語間構造的感情分析タスクは、ソース言語からターゲット言語へ知識を伝達することを目的としている。
本稿では,暗黙的分散と明示的構造的知識を両立させた知識強化逆数モデル(textttKEAM)を提案する。
我々は5つのデータセットの実験を行い、textttKEAMと教師なしおよび教師なしの両方の手法を比較した。
論文 参考訳(メタデータ) (2022-05-31T03:07:51Z) - Graph Neural Networks Intersect Probabilistic Graphical Models: A Survey [0.0]
グラフニューラルネットワーク(GNN)と確率的グラフィカルモデル(PGM)の交点について検討する。
GNNは、PGMにおける構造化表現の学習、PGMによる説明可能な予測、およびPGMがオブジェクト関係を推測する方法の恩恵を受けることができる。
本稿では,最近の研究で使用されるベンチマークデータセットを要約し,将来的な方向性について論じる。
論文 参考訳(メタデータ) (2022-05-24T03:36:25Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Probing Linguistic Features of Sentence-Level Representations in Neural
Relation Extraction [80.38130122127882]
ニューラルリレーション抽出(RE)に関連する言語特性を対象とした14の探索タスクを導入する。
私たちは、40以上の異なるエンコーダアーキテクチャと2つのデータセットでトレーニングされた言語的特徴の組み合わせによって学習された表現を研究するためにそれらを使用します。
アーキテクチャによって引き起こされるバイアスと言語的特徴の含意は、探索タスクのパフォーマンスにおいて明らかに表現されている。
論文 参考訳(メタデータ) (2020-04-17T09:17:40Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。