論文の概要: Disambiguated Lexically Constrained Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2305.17351v1
- Date: Sat, 27 May 2023 03:15:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 20:02:57.075087
- Title: Disambiguated Lexically Constrained Neural Machine Translation
- Title(参考訳): 曖昧な語彙制約を持つニューラルマシン翻訳
- Authors: Jinpeng Zhang, Nini Xiao, Ke Wang, Chuanqi Dong, Xiangyu Duan, Yuqi
Zhang, Min Zhang
- Abstract要約: LCNMTへの現在のアプローチは、あらかじめ指定された語彙制約が文脈的に適切であると仮定している。
この問題を解決するために,不明瞭なLCNMT(D-LCNMT)を提案する。
D-LCNMTは堅牢で効果的な2段階のフレームワークであり、最初は文脈に基づいて制約を曖昧にし、その曖昧な制約をLCNMTに統合する。
- 参考スコア(独自算出の注目度): 20.338107081523212
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lexically constrained neural machine translation (LCNMT), which controls the
translation generation with pre-specified constraints, is important in many
practical applications. Current approaches to LCNMT typically assume that the
pre-specified lexical constraints are contextually appropriate. This assumption
limits their application to real-world scenarios where a source lexicon may
have multiple target constraints, and disambiguation is needed to select the
most suitable one. In this paper, we propose disambiguated LCNMT (D-LCNMT) to
solve the problem. D-LCNMT is a robust and effective two-stage framework that
disambiguates the constraints based on contexts at first, then integrates the
disambiguated constraints into LCNMT. Experimental results show that our
approach outperforms strong baselines including existing data augmentation
based approaches on benchmark datasets, and comprehensive experiments in
scenarios where a source lexicon corresponds to multiple target constraints
demonstrate the constraint disambiguation superiority of our approach.
- Abstract(参考訳): プレ特定制約による翻訳生成を制御するLexically constrained Neural Machine Translation (LCNMT)は,多くの実用化において重要である。
LCNMTへの現在のアプローチは、通常、あらかじめ指定された語彙制約が文脈的に適切であると仮定する。
この仮定は、ソースレキシコンが複数のターゲット制約を持ち、最も適切なものを選択するために曖昧さをなくすことができる現実のシナリオにアプリケーションを限定する。
本稿では,この問題を解決するために不明瞭なLCNMT(D-LCNMT)を提案する。
D-LCNMTは堅牢で効果的な2段階のフレームワークであり、最初は文脈に基づいて制約を曖昧にし、その曖昧な制約をLCNMTに統合する。
実験の結果,提案手法は,ベンチマークデータセットに基づく既存データ拡張アプローチや,ソース辞書が複数のターゲット制約に対応するシナリオにおける包括的実験など,強いベースラインよりも優れていることが示された。
関連論文リスト
- Attribute Controlled Fine-tuning for Large Language Models: A Case Study on Detoxification [76.14641982122696]
本稿では,属性制御付き大規模言語モデル(LLM)の制約学習スキーマを提案する。
提案手法は, ベンチマーク上での競合性能と毒性検出タスクを達成しながら, 不適切な応答を少ないLCMに導出することを示す。
論文 参考訳(メタデータ) (2024-10-07T23:38:58Z) - Making Large Language Models Better Planners with Reasoning-Decision Alignment [70.5381163219608]
マルチモーダリティ強化LLMに基づくエンドツーエンド意思決定モデルを提案する。
ペア化されたCoTと計画結果との推論・決定アライメントの制約を提案する。
提案する大規模言語プランナをRDA-Driverとして推論・決定アライメントする。
論文 参考訳(メタデータ) (2024-08-25T16:43:47Z) - Translate-and-Revise: Boosting Large Language Models for Constrained Translation [42.37981028583618]
制約付き翻訳には,大規模言語モデル(LLM)の機能を利用する。
LLMは、翻訳命令や制約をプロンプトとして取り込むことで、このタスクに容易に適応できる。
標準LLMよりも制約に基づく翻訳精度が15%向上したことを示す。
論文 参考訳(メタデータ) (2024-07-18T05:08:09Z) - Prefix Text as a Yarn: Eliciting Non-English Alignment in Foundation Language Model [50.339632513018934]
教師付き微調整(SFT)は、基礎大言語モデル(LLM)の出力を特定の嗜好に合わせるための単純なアプローチである。
我々はこの仮説を言語間タスクの範囲内で批判的に検証する。
タスク関連トークンを最小化するPreTTYという新しいトレーニングフリーアライメント手法を提案する。
論文 参考訳(メタデータ) (2024-04-25T17:19:36Z) - FollowBench: A Multi-level Fine-grained Constraints Following Benchmark for Large Language Models [79.62191017182518]
FollowBenchは、大規模言語モデルのベンチマークに続くきめ細かい制約のベンチマークである。
本稿では,初期命令に段階的に1つの制約を付加するマルチレベル機構を提案する。
FollowBench上での13のLLMの評価により,LLMの弱さと今後の研究への道のりを示す。
論文 参考訳(メタデータ) (2023-10-31T12:32:38Z) - Towards Accurate Translation via Semantically Appropriate Application of
Lexical Constraints [0.0]
我々は,LNMT研究の現在評価過程にある2つの重要かつ未研究の問題に焦点をあてる。
モデルは、トレーニング中に"ホモグラフ"や"見えない"といった難しい語彙制約に対処する必要があります。
PLUMCOTは、事前学習された言語モデルから、目に見えない語彙制約に関する情報を文脈的にリッチに統合する。
また、HOLLYは、モデルが「ホログラフィック」および「見えない」語彙制約に対処する能力を評価するための評価ベンチマークである。
論文 参考訳(メタデータ) (2023-06-21T08:08:15Z) - Neural Fields with Hard Constraints of Arbitrary Differential Order [61.49418682745144]
我々は、ニューラルネットワークに厳しい制約を課すための一連のアプローチを開発する。
制約は、ニューラルネットワークとそのデリバティブに適用される線形作用素として指定することができる。
私たちのアプローチは、広範囲の現実世界のアプリケーションで実証されています。
論文 参考訳(メタデータ) (2023-06-15T08:33:52Z) - Integrating Vectorized Lexical Constraints for Neural Machine
Translation [22.300632179228426]
語彙制約付きニューラルネットワーク翻訳(NMT)は、あらかじめ指定された制約を持つNMTモデルの生成を制御する。
既存のほとんどの研究は、合成データを構築したり、語彙制約を課すために復号アルゴリズムを変更することを選び、NMTモデルをブラックボックスとして扱う。
我々は,制約を直接NMTモデルに統合することで,このブラックボックスを開くことを提案する。
論文 参考訳(メタデータ) (2022-03-23T05:54:37Z) - Rule-based Morphological Inflection Improves Neural Terminology
Translation [16.802947102163497]
ニューラルMT(NMT)にレムマ制約を組み込むモジュラーフレームワークを導入する。
これは、ソースコンテキストに基づいてターゲットのレムマ制約を屈折させる新しい言語間インフレクションモジュールに基づいている。
その結果,NMTモデルがニューラルモジュールよりも正確にレムマ制約を組み込むのに有効であり,トレーニングコストの低減を図り,既存のエンドツーエンドアプローチよりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-09-10T02:06:48Z) - NeuroLogic Decoding: (Un)supervised Neural Text Generation with
Predicate Logic Constraints [75.66980495245926]
条件付きテキスト生成は、しばしば語彙的な制約を必要とする。
我々は、ニューラルネットワークモデル -- 教師付きか否かに関わらず -- がフロートテキストを生成することを可能にする、シンプルで効果的なアルゴリズムであるNeuroLogic Decodingを提案する。
この結果から,制御可能な微粒化生成のための大規模ニューラルネットワークの限界と,推論時間アルゴリズムの約束が示唆された。
論文 参考訳(メタデータ) (2020-10-24T11:55:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。