論文の概要: Word Alignment in the Era of Deep Learning: A Tutorial
- arxiv url: http://arxiv.org/abs/2212.00138v1
- Date: Wed, 30 Nov 2022 22:07:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 15:47:06.012494
- Title: Word Alignment in the Era of Deep Learning: A Tutorial
- Title(参考訳): ディープラーニング時代の単語アライメント:チュートリアル
- Authors: Bryan Li
- Abstract要約: 単語アライメントタスクは、統計機械翻訳(SMT)時代において顕著であったにもかかわらず、今日ではニッチであり、未探索である。
GIZA++は教師なしの統計的単語整合器で、驚くほど長寿命です。
ニューラルマシン翻訳(NMT)の時代に向かって、単語アライメントからの洞察が、現在のNMTに基本的な注意機構にどのように影響したかを示す。
- 参考スコア(独自算出の注目度): 2.741266294612776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The word alignment task, despite its prominence in the era of statistical
machine translation (SMT), is niche and under-explored today. In this two-part
tutorial, we argue for the continued relevance for word alignment. The first
part provides a historical background to word alignment as a core component of
the traditional SMT pipeline. We zero-in on GIZA++, an unsupervised,
statistical word aligner with surprising longevity. Jumping forward to the era
of neural machine translation (NMT), we show how insights from word alignment
inspired the attention mechanism fundamental to present-day NMT. The second
part shifts to a survey approach. We cover neural word aligners, showing the
slow but steady progress towards surpassing GIZA++ performance. Finally, we
cover the present-day applications of word alignment, from cross-lingual
annotation projection, to improving translation.
- Abstract(参考訳): 統計機械翻訳(statistical machine translation, smt)の時代に流行した単語アライメントタスクは、今日ではニッチで未開拓である。
この2部構成のチュートリアルでは、単語アライメントの継続性について議論する。
最初の部分は、伝統的なsmtパイプラインのコアコンポーネントとして、単語アライメントの歴史的背景を提供する。
GIZA++は教師なしの統計的単語整合器で、驚くほど長寿命です。
ニューラルマシン翻訳(NMT)の時代に向かって、単語アライメントからの洞察が、現在のNMTに基本的な注意機構にどのように影響したかを示す。
第2部は調査アプローチに移行します。
ニューラルワードコーディネータを網羅し、GIZA++のパフォーマンスを上回る、遅いが着実に進歩していることを示す。
最後に、単語アライメントの現在の応用について、言語間のアノテーションの投影から翻訳の改善まで紹介する。
関連論文リスト
- Code-Switching with Word Senses for Pretraining in Neural Machine
Translation [107.23743153715799]
ニューラルネットワーク翻訳のための単語センス事前学習(WSP-NMT)について紹介する。
WSP-NMTは、知識ベースからの単語感覚情報を活用した多言語NMTモデルの事前学習のためのエンドツーエンドアプローチである。
実験の結果,全体の翻訳品質が大幅に向上した。
論文 参考訳(メタデータ) (2023-10-21T16:13:01Z) - Weakly Supervised Temporal Adjacent Network for Language Grounding [96.09453060585497]
本稿では,時間的言語接地のための新しい教師付き時間的隣接ネットワーク(WSTAN)を提案する。
WSTANは、複数のインスタンス学習(MIL)パラダイムにおいて、時間的隣接ネットワークを活用することで、モーダル間のセマンティックアライメントを学習する。
MILブランチと補完ブランチの両方で、自己監督による意味的識別を強化するために、追加の自己識別損失が考案された。
論文 参考訳(メタデータ) (2021-06-30T15:42:08Z) - SLUA: A Super Lightweight Unsupervised Word Alignment Model via
Cross-Lingual Contrastive Learning [79.91678610678885]
超軽量非教師付き単語アライメントモデル(SLUA)を提案する。
いくつかの公開ベンチマークによる実験結果から,我々のモデルは性能が向上しても競争力を発揮することが示された。
特に、我々のモデルはバイリンガル単語の埋め込みと単語のアライメントを統一する先駆的な試みであると認識している。
論文 参考訳(メタデータ) (2021-02-08T05:54:11Z) - Mask-Align: Self-Supervised Neural Word Alignment [47.016975106231875]
Mask-Alignは、単語アライメントタスク用に特別に設計された自己監督モデルです。
我々のモデルでは,各トークンを並列にマスクし,予測し,教師付き損失を伴わずに高品質なアライメントを抽出する。
論文 参考訳(メタデータ) (2020-12-13T21:44:29Z) - Dual Past and Future for Neural Machine Translation [51.418245676894465]
我々は、ソース・ツー・ターゲットとターゲット・ツー・ソースのNMTモデルの両方を利用して、過去・未来のモジュールに対してより直接的かつ正確な監視信号を提供する新しいデュアル・フレームワークを提案する。
実験の結果,提案手法はNMT予測の精度を大幅に向上し,従来の手法を2つのよく研究された翻訳タスクで上回っていることがわかった。
論文 参考訳(メタデータ) (2020-07-15T14:52:24Z) - End-to-End Neural Word Alignment Outperforms GIZA++ [9.631882592490376]
本稿では、3つのデータセット上でGIZA++を一貫して上回る最初のエンドツーエンドのニューラルワードアライメント手法を提案する。
提案手法では,教師あり翻訳のために訓練されたトランスフォーマーモデルを再利用し,教師なし単語アライメントモデルとして機能させる。
論文 参考訳(メタデータ) (2020-04-30T10:29:37Z) - A Supervised Word Alignment Method based on Cross-Language Span
Prediction using Multilingual BERT [22.701728185474195]
まず、単語アライメント問題を、原文のトークンから対象文のスパンへの独立予測の集合として定式化する。
次に、手作業で作成したゴールドワードアライメントデータに基づいて微調整された多言語BERTを用いて、この問題を解決する。
提案手法は,事前学習にビットクストを用いることなく,従来の教師付き単語アライメント法と教師なし単語アライメント法を著しく上回ることを示す。
論文 参考訳(メタデータ) (2020-04-29T23:40:08Z) - Neural Machine Translation: Challenges, Progress and Future [62.75523637241876]
機械翻訳(英: Machine translation, MT)は、コンピュータを利用して人間の言語を自動翻訳する技術である。
ニューラルマシン翻訳(NMT)は、ディープニューラルネットワークを用いたソース言語とターゲット言語間の直接マッピングをモデル化する。
この記事では、NMTフレームワークをレビューし、NMTの課題について論じ、最近のエキサイティングな進歩を紹介します。
論文 参考訳(メタデータ) (2020-04-13T07:53:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。