論文の概要: NABU $\mathrm{-}$ Multilingual Graph-based Neural RDF Verbalizer
- arxiv url: http://arxiv.org/abs/2009.07728v2
- Date: Mon, 21 Sep 2020 14:14:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 00:05:10.766484
- Title: NABU $\mathrm{-}$ Multilingual Graph-based Neural RDF Verbalizer
- Title(参考訳): NABU $\mathrm{-}$ Multilingual Graph-based Neural RDF Verbalizer
- Authors: Diego Moussallem and Dwaraknath Gnaneshwar and Thiago Castro Ferreira
and Axel-Cyrille Ngonga Ngomo
- Abstract要約: NABUは、RDFデータをドイツ語、ロシア語、英語に動詞化するグラフベースのニューラルモデルである。
以上の結果から,NABUは66.21BLEUで英語に対する最先端のアプローチよりも優れていた。
- 参考スコア(独自算出の注目度): 3.419992814908564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The RDF-to-text task has recently gained substantial attention due to
continuous growth of Linked Data. In contrast to traditional pipeline models,
recent studies have focused on neural models, which are now able to convert a
set of RDF triples into text in an end-to-end style with promising results.
However, English is the only language widely targeted. We address this research
gap by presenting NABU, a multilingual graph-based neural model that verbalizes
RDF data to German, Russian, and English. NABU is based on an encoder-decoder
architecture, uses an encoder inspired by Graph Attention Networks and a
Transformer as decoder. Our approach relies on the fact that knowledge graphs
are language-agnostic and they hence can be used to generate multilingual text.
We evaluate NABU in monolingual and multilingual settings on standard
benchmarking WebNLG datasets. Our results show that NABU outperforms
state-of-the-art approaches on English with 66.21 BLEU, and achieves consistent
results across all languages on the multilingual scenario with 56.04 BLEU.
- Abstract(参考訳): RDF-to-textタスクは、Linked Dataの継続的な成長により、最近大きな注目を集めている。
従来のパイプラインモデルとは対照的に、最近の研究はニューラルネットワークに焦点を当てており、rdfトリプルのセットをエンドツーエンドでテキストに変換することで、有望な結果を得ることができる。
しかし、英語のみが広くターゲットとなっている。
本研究では,多言語グラフに基づくニューラルモデルであるNABUをドイツ語,ロシア語,英語に言語化することで,この研究ギャップに対処する。
NABUはエンコーダ-デコーダアーキテクチャをベースにしており、グラフアテンションネットワークにインスパイアされたエンコーダと、トランスフォーマーをデコーダとして使用する。
我々のアプローチは知識グラフが言語に依存しないという事実に依存しており、多言語テキストを生成するために使用できる。
標準ベンチマークWebNLGデータセット上でNABUを単言語および多言語設定で評価する。
以上の結果から,NABU は66.21 BLEU で最先端の手法よりも優れており,56.04 BLEU で多言語シナリオ上で全言語で一貫した結果が得られることがわかった。
関連論文リスト
- Tucano: Advancing Neural Text Generation for Portuguese [0.0]
本研究は,ポルトガル語におけるニューラルテキスト生成の今後の発展を促進するために,新たなリソースセットを導入することを目的としている。
本研究は,ポルトガル語テキストコーパスの重複であるGigaVerboの開発について述べる。
我々のモデルは、ポルトガルのいくつかのベンチマークにおいて、同様の大きさの他のポルトガル語および多言語言語モデルと同等または優れている。
論文 参考訳(メタデータ) (2024-11-12T15:06:06Z) - NeKo: Toward Post Recognition Generative Correction Large Language Models with Task-Oriented Experts [57.53692236201343]
提案するマルチタスク補正MOEでは,専門家が音声・テキスト・言語・テキスト・視覚・テキスト・データセットの「専門家」になるよう訓練する。
NeKoはマルチタスクモデルとして文法とポストOCR補正を競合的に実行している。
論文 参考訳(メタデータ) (2024-11-08T20:11:24Z) - Can Character-based Language Models Improve Downstream Task Performance
in Low-Resource and Noisy Language Scenarios? [0.0]
我々は、ナラビジ(NArabizi)と呼ばれるラテン文字の拡張を用いて書かれた北アフリカ方言のアラビア語に焦点を当てている。
ナラビジの99k文のみを学習し,小さな木バンクで微調整したキャラクタベースモデルは,大規模多言語モデルとモノリンガルモデルで事前学習した同じアーキテクチャで得られたものに近い性能を示す。
論文 参考訳(メタデータ) (2021-10-26T14:59:16Z) - Transferring Knowledge Distillation for Multilingual Social Event
Detection [42.663309895263666]
最近発表されたグラフニューラルネットワーク(GNN)は、ソーシャルイベント検出タスクにおける有望なパフォーマンスを示している。
本稿では,多言語データストリーム中の事象を検出するために,言語間単語埋め込みを組み込んだGNNを提案する。
合成データセットと実世界のデータセットの両方の実験では、多言語データとトレーニングサンプルが不足している言語の両方において、検出に非常に効果的なフレームワークが示されている。
論文 参考訳(メタデータ) (2021-08-06T12:38:42Z) - ZmBART: An Unsupervised Cross-lingual Transfer Framework for Language
Generation [4.874780144224057]
自然言語生成のための言語間移動は、比較的研究が進められている。
NLGの4つのタスク(テキスト要約、質問生成、ニュース見出し生成、イントラクタ生成)と3つの構文的に多様な言語について検討する。
並列あるいは擬似並列/バックトランスレートデータを使用しない教師なし言語間言語生成フレームワーク(ZmBART)を提案する。
論文 参考訳(メタデータ) (2021-06-03T05:08:01Z) - Multilingual Autoregressive Entity Linking [49.35994386221958]
mGENREはMultilingual Entity Linking問題のためのシーケンス対シーケンスシステムである。
与えられた言語で言及すると、mGENREはターゲットエンティティの名前を左から右へ、トークンごとに予測します。
提案手法の有効性を3つのMELベンチマーク実験を含む広範囲な評価により示す。
論文 参考訳(メタデータ) (2021-03-23T13:25:55Z) - Explicit Alignment Objectives for Multilingual Bidirectional Encoders [111.65322283420805]
本稿では,多言語エンコーダAMBER(Aligned Multilingual Bi-directional EncodeR)の学習方法を提案する。
AMBERは、異なる粒度で多言語表現を整列する2つの明示的なアライメント目標を使用して、追加の並列データに基づいて訓練される。
実験結果から、AMBERは、シーケンスタグ付けで1.1平均F1スコア、XLMR-大規模モデル上での検索で27.3平均精度を得ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T18:34:13Z) - Pre-training Multilingual Neural Machine Translation by Leveraging
Alignment Information [72.2412707779571]
mRASPは、汎用多言語ニューラルマシン翻訳モデルを事前訓練するためのアプローチである。
我々は,低,中,豊かな資源を含む多種多様な環境における42の翻訳方向の実験を行い,エキゾチックな言語対への変換を行った。
論文 参考訳(メタデータ) (2020-10-07T03:57:54Z) - GATE: Graph Attention Transformer Encoder for Cross-lingual Relation and
Event Extraction [107.8262586956778]
言語に依存しない文表現を学習するために、普遍的な依存解析を伴うグラフ畳み込みネットワーク(GCN)を導入する。
GCNは、長い範囲の依存関係を持つ単語をモデル化するのに苦労する。
そこで本研究では,構文的距離の異なる単語間の依存関係を学習するための自己認識機構を提案する。
論文 参考訳(メタデータ) (2020-10-06T20:30:35Z) - Soft Gazetteers for Low-Resource Named Entity Recognition [78.00856159473393]
本稿では、英語知識ベースからユビキタスに利用可能な情報をニューラル名付きエンティティ認識モデルに組み込む「ソフトガゼッタ」を提案する。
4つの低リソース言語に対する実験により,F1得点の4点の平均的改善が示された。
論文 参考訳(メタデータ) (2020-05-04T21:58:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。