論文の概要: Reranking Machine Translation Hypotheses with Structured and Web-based
Language Models
- arxiv url: http://arxiv.org/abs/2104.12277v1
- Date: Sun, 25 Apr 2021 22:09:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:44:19.670471
- Title: Reranking Machine Translation Hypotheses with Structured and Web-based
Language Models
- Title(参考訳): 構造化およびWebベース言語モデルを用いた機械翻訳仮説の再検討
- Authors: Wen Wang and Andreas Stolcke and Jing Zheng
- Abstract要約: N-best Rescoringには2つの構造化言語モデルが適用される。
これらの言語モデルの組み合わせにより、BLEUのスコアはブラインドテストセットで完全に1.6%まで上昇する。
- 参考スコア(独自算出の注目度): 11.363601836199331
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate the use of linguistically motivated and
computationally efficient structured language models for reranking N-best
hypotheses in a statistical machine translation system. These language models,
developed from Constraint Dependency Grammar parses, tightly integrate
knowledge of words, morphological and lexical features, and syntactic
dependency constraints. Two structured language models are applied for N-best
rescoring, one is an almost-parsing language model, and the other utilizes more
syntactic features by explicitly modeling syntactic dependencies between words.
We also investigate effective and efficient language modeling methods to use
N-grams extracted from up to 1 teraword of web documents. We apply all these
language models for N-best re-ranking on the NIST and DARPA GALE program 2006
and 2007 machine translation evaluation tasks and find that the combination of
these language models increases the BLEU score up to 1.6% absolutely on blind
test sets.
- Abstract(参考訳): 本稿では,統計的機械翻訳システムにおけるN-best仮説の再評価のための言語動機付けおよび計算効率の高い構造化言語モデルの利用について検討する。
これらの言語モデルはConstraint Dependency Grammar解析から開発され、単語の知識、形態的および語彙的特徴、構文的依存制約を密に統合する。
2つの構造化言語モデルがn-best rescoringに適用され、1つはほぼ並列な言語モデルであり、もう1つは単語間の構文依存を明示的にモデル化することでより構文的特徴を利用する。
また,1テラワードまでの web 文書から抽出した n-gram を用いた効率的な言語モデリング手法について検討した。
NIST と DARPA GALE プログラム 2006 と 2007 の機械翻訳評価タスクにおいて,これらの言語モデルをすべて N-best に適用し,これらの言語モデルを組み合わせることで,ブラインドテストセットにおけるBLEU のスコアが 1.6% まで向上することを確認した。
関連論文リスト
- Linguistically Grounded Analysis of Language Models using Shapley Head Values [2.914115079173979]
最近提案されたシェープヘッド値(SHV)を用いた言語モデル探索手法を利用した形態素合成現象の処理について検討する。
英語のBLiMPデータセットを用いて、BERTとRoBERTaという2つの広く使われているモデルに対して、我々のアプローチを検証し、言語構造がどのように扱われるかを比較する。
以上の結果から,SHVに基づく属性は両モデルにまたがる異なるパターンを明らかにし,言語モデルがどのように言語情報を整理・処理するかの洞察を与える。
論文 参考訳(メタデータ) (2024-10-17T09:48:08Z) - Exploring Multiple Strategies to Improve Multilingual Coreference Resolution in CorefUD [0.0]
本稿では,エンド・ツー・エンドのニューラル・コアス・リゾリューションシステムについて述べる。
まず、モノリンガルとクロスリンガルのバリエーションを含む強力なベースラインモデルを構築します。
多様な言語文脈における性能向上のためのいくつかの拡張を提案する。
論文 参考訳(メタデータ) (2024-08-29T20:27:05Z) - On the Analysis of Cross-Lingual Prompt Tuning for Decoder-based
Multilingual Model [49.81429697921861]
多言語自己回帰モデルにおけるパラメータ効率細調整(PEFT)と言語間タスクの相互作用について検討する。
高速チューニングは、微調整よりも低リソース言語の性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2023-11-14T00:43:33Z) - JCoLA: Japanese Corpus of Linguistic Acceptability [3.6141428739228902]
JCoLA ( Japanese Corpus of Linguistic Acceptability) は10,020の文に二分的受容性判定を付加した文章である。
JCoLAにおける9種類の日本語モデルの構文的知識を評価する。
論文 参考訳(メタデータ) (2023-09-22T07:35:45Z) - Entity-Assisted Language Models for Identifying Check-worthy Sentences [23.792877053142636]
テキスト分類とランキングのための統一的なフレームワークを提案する。
本フレームワークは,文の意味的分析と,文内の識別されたエンティティから得られる追加のエンティティ埋め込みを組み合わせる。
CLEFの2019年と2020年のCheckThat! Labsから公開されている2つのデータセットを使用して、我々のフレームワークの有効性を広く評価する。
論文 参考訳(メタデータ) (2022-11-19T12:03:30Z) - Dependency-based Mixture Language Models [53.152011258252315]
依存性に基づく混合言語モデルを紹介する。
より詳しくは、依存関係モデリングの新たな目的により、まずニューラルネットワークモデルを訓練する。
次に、前回の依存性モデリング確率分布と自己意図を混合することにより、次の確率を定式化する。
論文 参考訳(メタデータ) (2022-03-19T06:28:30Z) - An Application of Pseudo-Log-Likelihoods to Natural Language Scoring [5.382454613390483]
比較的少ないパラメータとトレーニングステップを持つ言語モデルは、最近の大規模なデータセットでそれを上回るパフォーマンスを得ることができる。
二項選択タスクにおける常識推論のための絶対的最先端結果を生成する。
より小さなモデルの堅牢性は、構成性の観点から理解されるべきである。
論文 参考訳(メタデータ) (2022-01-23T22:00:54Z) - Specializing Multilingual Language Models: An Empirical Study [50.7526245872855]
事前訓練された多言語モデルからの文脈化語表現は、自然言語タスクに対処するデファクトスタンダードとなっている。
これらのモデルではまれに、あるいは一度も見られない言語では、そのようなモデルを直接使用すると、最適な表現やデータの使用につながることが多い。
論文 参考訳(メタデータ) (2021-06-16T18:13:55Z) - Improving the Lexical Ability of Pretrained Language Models for
Unsupervised Neural Machine Translation [127.81351683335143]
クロスリンガルプリトレーニングは、2つの言語の語彙的表現と高レベル表現を整列させるモデルを必要とする。
これまでの研究では、これは表現が十分に整合していないためです。
本稿では,語彙レベルの情報で事前学習するバイリンガルマスク言語モデルを,型レベルのクロスリンガルサブワード埋め込みを用いて強化する。
論文 参考訳(メタデータ) (2021-03-18T21:17:58Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。