論文の概要: GATE: Graph Attention Transformer Encoder for Cross-lingual Relation and
Event Extraction
- arxiv url: http://arxiv.org/abs/2010.03009v2
- Date: Wed, 17 Feb 2021 20:11:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 07:13:43.560283
- Title: GATE: Graph Attention Transformer Encoder for Cross-lingual Relation and
Event Extraction
- Title(参考訳): GATE:言語間関係とイベント抽出のためのグラフ注意変換器エンコーダ
- Authors: Wasi Uddin Ahmad and Nanyun Peng and Kai-Wei Chang
- Abstract要約: 言語に依存しない文表現を学習するために、普遍的な依存解析を伴うグラフ畳み込みネットワーク(GCN)を導入する。
GCNは、長い範囲の依存関係を持つ単語をモデル化するのに苦労する。
そこで本研究では,構文的距離の異なる単語間の依存関係を学習するための自己認識機構を提案する。
- 参考スコア(独自算出の注目度): 107.8262586956778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent progress in cross-lingual relation and event extraction use graph
convolutional networks (GCNs) with universal dependency parses to learn
language-agnostic sentence representations such that models trained on one
language can be applied to other languages. However, GCNs struggle to model
words with long-range dependencies or are not directly connected in the
dependency tree. To address these challenges, we propose to utilize the
self-attention mechanism where we explicitly fuse structural information to
learn the dependencies between words with different syntactic distances. We
introduce GATE, a {\bf G}raph {\bf A}ttention {\bf T}ransformer {\bf E}ncoder,
and test its cross-lingual transferability on relation and event extraction
tasks. We perform experiments on the ACE05 dataset that includes three
typologically different languages: English, Chinese, and Arabic. The evaluation
results show that GATE outperforms three recently proposed methods by a large
margin. Our detailed analysis reveals that due to the reliance on syntactic
dependencies, GATE produces robust representations that facilitate transfer
across languages.
- Abstract(参考訳): 言語間関係とイベント抽出の最近の進歩 グラフ畳み込みネットワーク(gcns)と普遍依存構文解析(英語版)を用いて、言語非依存の文表現を学習し、ある言語で訓練されたモデルを他の言語に適用することができる。
しかし、GCNは長い範囲の依存関係を持つ単語をモデル化するのに苦労する。
これらの課題に対処するため,我々は,構文距離の異なる単語間の依存関係を学ぶために,構造情報を明示的に融合するセルフアテンション機構を提案する。
本稿では、GATE, a {\bf G}raph {\bf A}ttention {\bf T}ransformer {\bf E}ncoderを紹介し、関係およびイベント抽出タスクにおける言語間転送性をテストする。
ACE05データセットで、英語、中国語、アラビア語の3つのタイプ型言語を含む実験を行った。
評価の結果,GATEは近年提案されている3つの手法よりも大きなマージンで優れていた。
我々の詳細な分析により,GATEは構文依存に依存しているため,言語間の移動を容易にする堅牢な表現を生成することがわかった。
関連論文リスト
- mCL-NER: Cross-Lingual Named Entity Recognition via Multi-view
Contrastive Learning [54.523172171533645]
CrossNERは多言語コーパスの不足により不均一な性能から生じる課題に直面している。
言語横断的名前付きエンティティ認識(mCL-NER)のためのマルチビューコントラスト学習を提案する。
40言語にまたがるXTREMEベンチマーク実験では、従来のデータ駆動型およびモデルベースアプローチよりもmCL-NERの方が優れていることを示した。
論文 参考訳(メタデータ) (2023-08-17T16:02:29Z) - Transferring Knowledge Distillation for Multilingual Social Event
Detection [42.663309895263666]
最近発表されたグラフニューラルネットワーク(GNN)は、ソーシャルイベント検出タスクにおける有望なパフォーマンスを示している。
本稿では,多言語データストリーム中の事象を検出するために,言語間単語埋め込みを組み込んだGNNを提案する。
合成データセットと実世界のデータセットの両方の実験では、多言語データとトレーニングサンプルが不足している言語の両方において、検出に非常に効果的なフレームワークが示されている。
論文 参考訳(メタデータ) (2021-08-06T12:38:42Z) - Cross-Lingual Adaptation for Type Inference [29.234418962960905]
弱い型付き言語間で深層学習に基づく型推論を行うための言語間適応フレームワークPLATOを提案する。
強く型付けされた言語からのデータを活用することで、PLATOは、バックボーンのクロスプログラミング言語モデルの難易度を改善する。
論文 参考訳(メタデータ) (2021-07-01T00:20:24Z) - Cross-lingual Text Classification with Heterogeneous Graph Neural
Network [2.6936806968297913]
言語間テキスト分類は、ソース言語上の分類器を訓練し、その知識を対象言語に伝達することを目的としている。
近年の多言語事前学習言語モデル (mPLM) は言語間分類タスクにおいて顕著な結果をもたらす。
言語間テキスト分類のための言語内および言語間における異種情報を統合するための,単純かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2021-05-24T12:45:42Z) - Multilingual Autoregressive Entity Linking [49.35994386221958]
mGENREはMultilingual Entity Linking問題のためのシーケンス対シーケンスシステムである。
与えられた言語で言及すると、mGENREはターゲットエンティティの名前を左から右へ、トークンごとに予測します。
提案手法の有効性を3つのMELベンチマーク実験を含む広範囲な評価により示す。
論文 参考訳(メタデータ) (2021-03-23T13:25:55Z) - VECO: Variable and Flexible Cross-lingual Pre-training for Language
Understanding and Generation [77.82373082024934]
我々はTransformerエンコーダにクロスアテンションモジュールを挿入し、言語間の相互依存を明確に構築する。
独自の言語でコンテキストにのみ条件付けされたマスク付き単語の予測の退化を効果的に回避することができる。
提案した言語間モデルでは,XTREMEベンチマークのさまざまな言語間理解タスクに対して,最先端の新たな結果が提供される。
論文 参考訳(メタデータ) (2020-10-30T03:41:38Z) - Language and Visual Entity Relationship Graph for Agent Navigation [54.059606864535304]
VLN(Vision-and-Language Navigation)は、エージェントが自然言語の指示に従って現実世界の環境をナビゲートする必要がある。
テキストと視覚間のモーダル関係をモデル化するための新しい言語とビジュアルエンティティ関係グラフを提案する。
実験によって、私たちは最先端技術よりも改善できる関係を利用しています。
論文 参考訳(メタデータ) (2020-10-19T08:25:55Z) - Vokenization: Improving Language Understanding with Contextualized,
Visual-Grounded Supervision [110.66085917826648]
我々は,言語トークンを関連画像に文脈的にマッピングすることで,言語のみのデータに対するマルチモーダルアライメントを補間する手法を開発した。
語彙化」は比較的小さな画像キャプションデータセットに基づいて訓練され、それを大規模言語コーパスのための語彙生成に適用する。
これらの文脈的に生成された語彙を用いて学習し、視覚的に制御された言語モデルにより、複数の純粋言語タスクにおいて、自己教師による代替よりも一貫した改善が示される。
論文 参考訳(メタデータ) (2020-10-14T02:11:51Z) - Cross-Lingual Adaptation Using Universal Dependencies [1.027974860479791]
複雑なNLPタスクのためのUD構文解析木を用いて訓練されたモデルは、非常に異なる言語を特徴付けることができることを示す。
UD解析木に基づいて,木カーネルを用いた複数のモデルを開発し,これらのモデルが英語データセットでトレーニングされた場合,他の言語のデータを正しく分類できることを示す。
論文 参考訳(メタデータ) (2020-03-24T13:04:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。