論文の概要: Graph-to-Sequence Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2009.07489v1
- Date: Wed, 16 Sep 2020 06:28:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 23:55:18.031900
- Title: Graph-to-Sequence Neural Machine Translation
- Title(参考訳): グラフからシーケンスへのニューラルマシン翻訳
- Authors: Sufeng Duan, Hai Zhao and Rui Wang
- Abstract要約: グラフ変換器(Graph-Transformer)と呼ばれるグラフベースのSANベースのNMTモデルを提案する。
サブグラフは順番に応じて異なるグループに分類され、各サブグラフは単語間の依存度をそれぞれ異なるレベルに反映する。
提案手法は,WMT14ドイツ語データセットの1.1BLEU点,IWSLT14ドイツ語データセットの1.0BLEU点の改善により,トランスフォーマーを効果的に向上させることができる。
- 参考スコア(独自算出の注目度): 79.0617920270817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural machine translation (NMT) usually works in a seq2seq learning way by
viewing either source or target sentence as a linear sequence of words, which
can be regarded as a special case of graph, taking words in the sequence as
nodes and relationships between words as edges. In the light of the current NMT
models more or less capture graph information among the sequence in a latent
way, we present a graph-to-sequence model facilitating explicit graph
information capturing. In detail, we propose a graph-based SAN-based NMT model
called Graph-Transformer by capturing information of subgraphs of different
orders in every layers. Subgraphs are put into different groups according to
their orders, and every group of subgraphs respectively reflect different
levels of dependency between words. For fusing subgraph representations, we
empirically explore three methods which weight different groups of subgraphs of
different orders. Results of experiments on WMT14 English-German and IWSLT14
German-English show that our method can effectively boost the Transformer with
an improvement of 1.1 BLEU points on WMT14 English-German dataset and 1.0 BLEU
points on IWSLT14 German-English dataset.
- Abstract(参考訳): ニューラルマシン翻訳(nmt)は通常、ソースまたはターゲット文のいずれかを単語の線形列として見ることで、seq2seq学習方法で動作し、グラフの特別な場合と見なすことができ、シーケンス内の単語をノードとして、単語間の関係をエッジとして取り込むことができる。
現在のnmtモデルに照らし合わせると、シーケンス間のグラフ情報を潜伏的にキャプチャし、明示的なグラフ情報のキャプチャを容易にするグラフツーシーケンスモデルを提案する。
具体的には,各層で異なる順序のサブグラフの情報を取得することにより,グラフベースのsanベースのnmtモデルであるgraph-transformerを提案する。
サブグラフは順番に応じて異なるグループに分類され、各サブグラフは単語間の依存度をそれぞれ異なるレベルに反映する。
サブグラフ表現を用いるために、異なる順序のサブグラフのグループを重み付けする3つの手法を経験的に検討する。
WMT14英語-ドイツ語とIWSLT14ドイツ語-英語の実験結果から,WMT14英語-ドイツ語データセットの1.1BLEU点,IWSLT14ドイツ語-英語データセットの1.0BLEU点を改良することにより,トランスフォーマーを効果的に向上させることができることが示された。
関連論文リスト
- On Pre-training of Multimodal Language Models Customized for Chart Understanding [83.99377088129282]
本稿では,MLLMのチャート理解を改善するために必要な学習過程について考察する。
詳細なチャート理解に適したMLLMであるCHOPINLLMを紹介する。
論文 参考訳(メタデータ) (2024-07-19T17:58:36Z) - Parameter-Efficient Tuning Large Language Models for Graph Representation Learning [62.26278815157628]
Graph-awareを導入します。
GPEFT - グラフ表現学習のための新しい手法。
グラフニューラルネットワーク(GNN)を用いて、隣接するノードからグラフプロンプトに構造情報をエンコードする。
我々は8つの異なるテキストリッチグラフで実施した総合的な実験を通じて,リンク予測評価において hit@1 と Mean Reciprocal Rank (MRR) の平均 2% の改善を観察し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-04-28T18:36:59Z) - Graph Mixup with Soft Alignments [49.61520432554505]
本研究では,画像上での使用に成功しているミキサアップによるグラフデータの増大について検討する。
ソフトアライメントによるグラフ分類のための簡易かつ効果的な混合手法であるS-Mixupを提案する。
論文 参考訳(メタデータ) (2023-06-11T22:04:28Z) - FACTUAL: A Benchmark for Faithful and Consistent Textual Scene Graph
Parsing [66.70054075041487]
画像キャプションをシーングラフに変換する既存のシーングラフは、しばしば2種類のエラーに悩まされる。
まず、生成されたシーングラフはキャプションや対応する画像の真の意味を捉えず、忠実さの欠如をもたらす。
第二に、生成されたシーングラフは一貫性が高く、同じセマンティクスは異なるアノテーションで表される。
論文 参考訳(メタデータ) (2023-05-27T15:38:31Z) - Dependency Graph-to-String Statistical Machine Translation [40.91501320179243]
ソースグラフは、非構文句が接続されるように、追加リンクを持つ依存木から構築される。
句に基づくモデルに着想を得て,まず,グラフを不一致部分グラフの列に分割し,ビーム探索を用いて左から右への部分グラフ翻訳を合成して翻訳を生成する翻訳モデルを提案する。
論文 参考訳(メタデータ) (2021-03-20T04:20:56Z) - To Understand Representation of Layer-aware Sequence Encoders as
Multi-order-graph [45.51774590045651]
層認識型ニューラルシーケンスエンコーダの表現を統一的に記述する。
提案するmog説明により,表現生成の全てのステップを正確に観察できる。
また,グラフを用いた自己接続ネットワークも提案する。
論文 参考訳(メタデータ) (2021-01-16T08:12:03Z) - Motif-Driven Contrastive Learning of Graph Representations [32.03481571304036]
しばしば発生するサブグラフパターンであるグラフモチーフを学習し、より良いサブグラフサンプリングを提案する。
ogbg-molhivデータセットをMICRO-Graphで事前トレーニングすることで、事前トレーニングされたGNNは平均性能を2.04%向上させる。
論文 参考訳(メタデータ) (2020-12-23T08:10:19Z) - Document Graph for Neural Machine Translation [42.13593962963306]
文書は, 距離に関係なく, 関連コンテキストを関連づけるグラフとして表現できることを示す。
IWSLT English- French, Chinese- English, WMT English-German and Opensubtitle English- Russian などの様々なNMTベンチマークの実験では、文書グラフの使用により翻訳品質が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-12-07T06:48:59Z) - Sequential Graph Convolutional Network for Active Learning [53.99104862192055]
逐次グラフ畳み込みネットワーク(GCN)を用いた新しいプールベースアクティブラーニングフレームワークを提案する。
少数のランダムなサンプル画像がシードラベル付き例であるので、グラフのパラメータを学習してラベル付きノードと非ラベル付きノードを区別する。
我々はGCNの特性を利用してラベル付けされたものと十分に異なる未ラベルの例を選択する。
論文 参考訳(メタデータ) (2020-06-18T00:55:10Z) - Tensor Graph Convolutional Networks for Text Classification [17.21683037822181]
グラフベースのニューラルネットワークは、グローバル情報をキャプチャする機能など、いくつかの優れた特性を示している。
本稿では,テキスト分類問題に対するグラフベースニューラルネットワークについて検討する。
論文 参考訳(メタデータ) (2020-01-12T14:28:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。