論文の概要: Graphine: A Dataset for Graph-aware Terminology Definition Generation
- arxiv url: http://arxiv.org/abs/2109.04018v1
- Date: Thu, 9 Sep 2021 03:29:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 14:20:16.005807
- Title: Graphine: A Dataset for Graph-aware Terminology Definition Generation
- Title(参考訳): Graphine: グラフ対応用語定義生成のためのデータセット
- Authors: Zequn Liu, Shukai Wang, Yiyang Gu, Ruiyi Zhang, Ming Zhang, Sheng Wang
- Abstract要約: 本稿では,2,010,648の用語定義ペアをカバーする大規模用語定義データセットであるGraphineを提案する。
本稿では,トランスフォーマーとグラフニューラルネットワークを統合したグラフ認識定義生成モデルGraphexを提案する。
- 参考スコア(独自算出の注目度): 17.978450464176863
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Precisely defining the terminology is the first step in scientific
communication. Developing neural text generation models for definition
generation can circumvent the labor-intensity curation, further accelerating
scientific discovery. Unfortunately, the lack of large-scale terminology
definition dataset hinders the process toward definition generation. In this
paper, we present a large-scale terminology definition dataset Graphine
covering 2,010,648 terminology definition pairs, spanning 227 biomedical
subdisciplines. Terminologies in each subdiscipline further form a directed
acyclic graph, opening up new avenues for developing graph-aware text
generation models. We then proposed a novel graph-aware definition generation
model Graphex that integrates transformer with graph neural network. Our model
outperforms existing text generation models by exploiting the graph structure
of terminologies. We further demonstrated how Graphine can be used to evaluate
pretrained language models, compare graph representation learning methods and
predict sentence granularity. We envision Graphine to be a unique resource for
definition generation and many other NLP tasks in biomedicine.
- Abstract(参考訳): 用語を正確に定義することは、科学的なコミュニケーションの第一段階である。
定義生成のためのニューラルテキスト生成モデルの開発は、労働力の増大を回避し、科学的発見をさらに加速することができる。
残念ながら、大規模な用語定義データセットの欠如は、定義生成のプロセスを妨げる。
本稿では,227の生物医学分野にまたがる2,010,648の用語定義ペアをカバーする大規模用語定義データセットGraphineを提案する。
各学区の用語はさらに有向非巡回グラフを形成し、グラフ対応テキスト生成モデルを開発するための新しい道を開く。
そこで我々は、トランスフォーマーとグラフニューラルネットワークを統合するグラフ認識定義生成モデルGraphexを提案する。
本モデルは、用語のグラフ構造を利用して既存のテキスト生成モデルを上回る。
さらに,事前学習された言語モデルの評価,グラフ表現学習法の比較,文粒度予測にgraphineが利用できることを示した。
バイオメディシンにおける定義生成および他の多くのNLPタスクのためのユニークなリソースとして、Graphineを想定する。
関連論文リスト
- GraphLSS: Integrating Lexical, Structural, and Semantic Features for Long Document Extractive Summarization [19.505955857963855]
長い文書抽出要約のための異種グラフ構造であるGraphLSSを提案する。
補助学習モデルを必要としない2種類の情報(単語と文)と4種類のエッジ(文の意味的類似性、文発生順序、文中の単語、単語の意味的類似性)を定義する。
論文 参考訳(メタデータ) (2024-10-25T23:48:59Z) - Graph Generation with Diffusion Mixture [57.78958552860948]
グラフの生成は、非ユークリッド構造の複雑な性質を理解する必要がある実世界のタスクにとって大きな課題である。
本稿では,拡散過程の最終グラフ構造を明示的に学習することにより,グラフのトポロジーをモデル化する生成フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-07T17:07:46Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Explanation Graph Generation via Pre-trained Language Models: An
Empirical Study with Contrastive Learning [84.35102534158621]
エンドツーエンドで説明グラフを生成する事前学習言語モデルについて検討する。
本稿では,ノードとエッジの編集操作によるグラフ摂動の簡易かつ効果的な方法を提案する。
提案手法は,説明グラフの構造的精度と意味的精度を両立させる。
論文 参考訳(メタデータ) (2022-04-11T00:58:27Z) - GraphFormers: GNN-nested Transformers for Representation Learning on
Textual Graph [53.70520466556453]
階層的にGNNコンポーネントを言語モデルのトランスフォーマーブロックと一緒にネストするGraphFormerを提案する。
提案したアーキテクチャでは、テキストエンコーディングとグラフ集約を反復的なワークフローに融合する。
さらに、プログレッシブ・ラーニング・ストラテジーを導入し、そのモデルが操作されたデータと元のデータに基づいて連続的に訓練され、グラフ上の情報を統合する能力を強化する。
論文 参考訳(メタデータ) (2021-05-06T12:20:41Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z) - Promoting Graph Awareness in Linearized Graph-to-Text Generation [72.83863719868364]
局所グラフ構造を符号化する線形化モデルの能力を検討する。
本研究は,モデルの暗黙のグラフ符号化の品質を高めるための解法である。
これらの消音足場は、低リソース設定における下流生成の大幅な改善につながることが分かりました。
論文 参考訳(メタデータ) (2020-12-31T18:17:57Z) - A Systematic Survey on Deep Generative Models for Graph Generation [16.546379779385575]
グラフ生成は与えられたグラフの分布を学習し、より新しいグラフを生成する。
グラフ生成のための深部生成モデルの最近の進歩は、生成されたグラフの忠実性を改善するための重要なステップである。
本稿では,グラフ生成のための深部生成モデル分野における文献の概要について概説する。
論文 参考訳(メタデータ) (2020-07-13T20:56:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。