論文の概要: Knowledge Graphs for Multilingual Language Translation and Generation
- arxiv url: http://arxiv.org/abs/2009.07715v1
- Date: Wed, 16 Sep 2020 14:36:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 00:05:34.505867
- Title: Knowledge Graphs for Multilingual Language Translation and Generation
- Title(参考訳): 多言語翻訳・生成のための知識グラフ
- Authors: Diego Moussallem
- Abstract要約: この論文は、機械翻訳とテキスト生成のための知識グラフの使用に焦点を当てている。
エンティティは、固有名詞と共通名詞の2つのグループに分類される。
最近の研究は、自然言語推論(NLI)や質問回答(QA)といったNLPタスクにおけるKGの寄与をうまく活用している。
- 参考スコア(独自算出の注目度): 0.5076419064097732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Natural Language Processing (NLP) community has recently seen outstanding
progress, catalysed by the release of different Neural Network (NN)
architectures. Neural-based approaches have proven effective by significantly
increasing the output quality of a large number of automated solutions for NLP
tasks (Belinkov and Glass, 2019). Despite these notable advancements, dealing
with entities still poses a difficult challenge as they are rarely seen in
training data. Entities can be classified into two groups, i.e., proper nouns
and common nouns. Proper nouns are also known as Named Entities (NE) and
correspond to the name of people, organizations, or locations, e.g., John, WHO,
or Canada. Common nouns describe classes of objects, e.g., spoon or cancer.
Both types of entities can be found in a Knowledge Graph (KG). Recent work has
successfully exploited the contribution of KGs in NLP tasks, such as Natural
Language Inference (NLI) (KM et al.,2018) and Question Answering (QA) (Sorokin
and Gurevych, 2018). Only a few works had exploited the benefits of KGs in
Neural Machine Translation (NMT) when the work presented herein began.
Additionally, few works had studied the contribution of KGs to Natural Language
Generation (NLG) tasks. Moreover, the multilinguality also remained an open
research area in these respective tasks (Young et al., 2018). In this thesis,
we focus on the use of KGs for machine translation and the generation of texts
to deal with the problems caused by entities and consequently enhance the
quality of automatically generated texts.
- Abstract(参考訳): 自然言語処理(NLP)コミュニティは最近、異なるニューラルネットワーク(NN)アーキテクチャのリリースを背景として、目覚ましい進歩を遂げている。
ニューラルネットワークアプローチは、NLPタスクのための多数の自動化ソリューション(Belinkov and Glass, 2019)の出力品質を大幅に向上させることで、効果的に証明されている。
こうした顕著な進歩にもかかわらず、トレーニングデータにはほとんど見られないため、エンティティの扱いは依然として難しい課題である。
エンティティは、固有名詞と共通名詞の2つのグループに分類できる。
固有名詞はnamed Entities (NE)としても知られ、人、組織、場所、例えばジョン、WHO、カナダの名前に対応している。
一般的な名詞は、スプーンやがんなどのオブジェクトのクラスを記述する。
どちらのタイプのエンティティも知識グラフ(KG)で見ることができる。
最近の研究は、自然言語推論 (NLI) (KM et al., 2018) や質問回答 (QA) (Sorokin and Gurevych, 2018) など、NLPタスクにおけるKGの貢献をうまく活用している。
神経機械翻訳(neural machine translation, nmt)におけるkgsの利点を生かした作品はわずかである。
さらに、自然言語生成(nlg)タスクへのkgsの貢献を研究した作品はほとんどなかった。
さらに、多言語性はこれらのタスク(Young et al., 2018)においてオープンな研究領域として残っていた。
本稿では,機械翻訳におけるKGsの利用と,エンティティによる問題に対処するテキスト生成に着目し,それによって自動生成テキストの品質を向上させる。
関連論文リスト
- Knowledge Graphs, Large Language Models, and Hallucinations: An NLP Perspective [5.769786334333616]
大規模言語モデル(LLM)は、自動テキスト生成や質問応答などを含む自然言語処理(NLP)ベースのアプリケーションに革命をもたらした。
幻覚では、モデルがもっともらしい音を出すが、実際には正しくない反応を生成する。
本稿では,現状のデータセットやベンチマーク,知識統合や幻覚評価の手法など,これらのオープンな課題について論じる。
論文 参考訳(メタデータ) (2024-11-21T16:09:05Z) - Natural Language Processing for Dialects of a Language: A Survey [56.93337350526933]
最先端自然言語処理(NLP)モデルは、大規模なトレーニングコーパスでトレーニングされ、評価データセットで最上位のパフォーマンスを報告します。
この調査は、これらのデータセットの重要な属性である言語の方言を掘り下げる。
方言データセットに対するNLPモデルの性能劣化と言語技術のエクイティへのその影響を動機として,我々はデータセットやアプローチの観点から,方言に対するNLPの過去の研究を調査した。
論文 参考訳(メタデータ) (2024-01-11T03:04:38Z) - DAMO-NLP at SemEval-2023 Task 2: A Unified Retrieval-augmented System
for Multilingual Named Entity Recognition [94.90258603217008]
MultiCoNER RNum2共有タスクは、細粒度でノイズの多いシナリオにおいて、多言語の名前付きエンティティ認識(NER)に取り組むことを目的としている。
MultiCoNER RNum1の以前のトップシステムは、ナレッジベースまたはガゼッタを組み込んでいる。
細粒度多言語NERのための統一検索拡張システム(U-RaNER)を提案する。
論文 参考訳(メタデータ) (2023-05-05T16:59:26Z) - Neural Machine Translation For Low Resource Languages [0.0]
本稿では,低資源言語の領域を考察し,最先端の結果を得るためにニューラルマシン翻訳モデルを構築する。
本稿は,mBART言語モデルを構築し,様々なNLPおよびディープラーニング技術でそれを拡張するための戦略を探究する。
論文 参考訳(メタデータ) (2023-04-16T19:27:48Z) - A Survey of Knowledge Enhanced Pre-trained Language Models [78.56931125512295]
我々は、知識強化事前学習言語モデル(KE-PLMs)の包括的なレビューを行う。
NLUでは、言語知識、テキスト知識、知識グラフ(KG)、ルール知識の4つのカテゴリに分類する。
NLGのKE-PLMは、KGベースと検索ベースに分類される。
論文 参考訳(メタデータ) (2022-11-11T04:29:02Z) - Deep Bidirectional Language-Knowledge Graph Pretraining [159.9645181522436]
DRAGONは、テキストとKGを大規模に融合した言語知識基盤モデルを事前学習するための自己教師型アプローチである。
我々のモデルは、入力としてテキストセグメントと関連するKGサブグラフのペアを取り、両モードから情報を双方向に融合する。
論文 参考訳(メタデータ) (2022-10-17T18:02:52Z) - Multi-Task Text Classification using Graph Convolutional Networks for
Large-Scale Low Resource Language [5.197307534263253]
Graph Convolutional Networks (GCN)は、単一のテキスト分類タスクで最先端の結果を得た。
マルチタスクテキスト分類にGCNを適用することは、未調査領域である。
我々は,4つの自然言語処理(NLP)タスクに対して,単一タスクとマルチタスク設定でGCNをTelugu言語に使用することを検討した。
論文 参考訳(メタデータ) (2022-05-02T20:44:12Z) - Graph Neural Networks for Natural Language Processing: A Survey [64.36633422999905]
本稿では,自然言語処理のためのグラフニューラルネットワーク(GNN)について概観する。
我々は,グラフ構築,グラフ表現学習,グラフベースエンコーダ・デコーダモデルという3つの軸に沿って,NLP用GNNの既存の研究を組織する,NLP用GNNの新しい分類法を提案する。
論文 参考訳(メタデータ) (2021-06-10T23:59:26Z) - Soft Gazetteers for Low-Resource Named Entity Recognition [78.00856159473393]
本稿では、英語知識ベースからユビキタスに利用可能な情報をニューラル名付きエンティティ認識モデルに組み込む「ソフトガゼッタ」を提案する。
4つの低リソース言語に対する実験により,F1得点の4点の平均的改善が示された。
論文 参考訳(メタデータ) (2020-05-04T21:58:02Z) - Neurals Networks for Projecting Named Entities from English to Ewondo [6.058868817939519]
本稿では、リッチ言語から低リソース言語へ名前付きエンティティを投影するための新しい単語分布表現を提案する。
提案手法は良好な結果を得たが, 使用したニューラルネットワークのサイズが大きすぎた。
本稿では,より小さなニューラルネットワークを用いて,同じ結果が得られることを示す。
論文 参考訳(メタデータ) (2020-03-29T22:05:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。