論文の概要: Disambiguated Lexically Constrained Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2305.17351v1
- Date: Sat, 27 May 2023 03:15:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 20:02:57.075087
- Title: Disambiguated Lexically Constrained Neural Machine Translation
- Title(参考訳): 曖昧な語彙制約を持つニューラルマシン翻訳
- Authors: Jinpeng Zhang, Nini Xiao, Ke Wang, Chuanqi Dong, Xiangyu Duan, Yuqi
Zhang, Min Zhang
- Abstract要約: LCNMTへの現在のアプローチは、あらかじめ指定された語彙制約が文脈的に適切であると仮定している。
この問題を解決するために,不明瞭なLCNMT(D-LCNMT)を提案する。
D-LCNMTは堅牢で効果的な2段階のフレームワークであり、最初は文脈に基づいて制約を曖昧にし、その曖昧な制約をLCNMTに統合する。
- 参考スコア(独自算出の注目度): 20.338107081523212
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lexically constrained neural machine translation (LCNMT), which controls the
translation generation with pre-specified constraints, is important in many
practical applications. Current approaches to LCNMT typically assume that the
pre-specified lexical constraints are contextually appropriate. This assumption
limits their application to real-world scenarios where a source lexicon may
have multiple target constraints, and disambiguation is needed to select the
most suitable one. In this paper, we propose disambiguated LCNMT (D-LCNMT) to
solve the problem. D-LCNMT is a robust and effective two-stage framework that
disambiguates the constraints based on contexts at first, then integrates the
disambiguated constraints into LCNMT. Experimental results show that our
approach outperforms strong baselines including existing data augmentation
based approaches on benchmark datasets, and comprehensive experiments in
scenarios where a source lexicon corresponds to multiple target constraints
demonstrate the constraint disambiguation superiority of our approach.
- Abstract(参考訳): プレ特定制約による翻訳生成を制御するLexically constrained Neural Machine Translation (LCNMT)は,多くの実用化において重要である。
LCNMTへの現在のアプローチは、通常、あらかじめ指定された語彙制約が文脈的に適切であると仮定する。
この仮定は、ソースレキシコンが複数のターゲット制約を持ち、最も適切なものを選択するために曖昧さをなくすことができる現実のシナリオにアプリケーションを限定する。
本稿では,この問題を解決するために不明瞭なLCNMT(D-LCNMT)を提案する。
D-LCNMTは堅牢で効果的な2段階のフレームワークであり、最初は文脈に基づいて制約を曖昧にし、その曖昧な制約をLCNMTに統合する。
実験の結果,提案手法は,ベンチマークデータセットに基づく既存データ拡張アプローチや,ソース辞書が複数のターゲット制約に対応するシナリオにおける包括的実験など,強いベースラインよりも優れていることが示された。
関連論文リスト
- ConstraintMatch for Semi-constrained Clustering [32.92933231199262]
制約クラスタリングにより、ペアの制約のみを使用して分類モデルのトレーニングが可能になる。
そこで本稿では,制約の少ない制約セットとともに大量のテキスト非制約データを利用できる半教師付きコンテキストを提案し,制約のないデータを活用するためのtextitConstraintMatchを提案する。
論文 参考訳(メタデータ) (2023-11-26T19:31:52Z) - FollowBench: A Multi-level Fine-grained Constraints Following Benchmark
for Large Language Models [82.27118457984812]
FollowBenchは、大規模言語モデルのベンチマークに続くきめ細かい制約のベンチマークである。
本稿では,初期命令に段階的に1つの制約を付加するマルチレベル機構を提案する。
FollowBench 上での10 つの LLM の評価により,LLM の弱さを強調し,今後の研究への道のりを示唆する。
論文 参考訳(メタデータ) (2023-10-31T12:32:38Z) - A Comprehensive Evaluation of Constrained Text Generation for Large
Language Models [58.761655924438585]
本研究では,大言語モデル(LLM)の制約付きテキスト生成について検討する。
本稿では,ChatGPT や GPT-4 など複数の LLM について検討し,制約を語彙型,構造型,関係型に分類する。
この研究は、LLMが制約に準拠する範囲など、いくつかの重要な研究課題に対処する。
論文 参考訳(メタデータ) (2023-10-25T03:58:49Z) - Towards Accurate Translation via Semantically Appropriate Application of
Lexical Constraints [0.0]
我々は,LNMT研究の現在評価過程にある2つの重要かつ未研究の問題に焦点をあてる。
モデルは、トレーニング中に"ホモグラフ"や"見えない"といった難しい語彙制約に対処する必要があります。
PLUMCOTは、事前学習された言語モデルから、目に見えない語彙制約に関する情報を文脈的にリッチに統合する。
また、HOLLYは、モデルが「ホログラフィック」および「見えない」語彙制約に対処する能力を評価するための評価ベンチマークである。
論文 参考訳(メタデータ) (2023-06-21T08:08:15Z) - Neural Fields with Hard Constraints of Arbitrary Differential Order [61.49418682745144]
我々は、ニューラルネットワークに厳しい制約を課すための一連のアプローチを開発する。
制約は、ニューラルネットワークとそのデリバティブに適用される線形作用素として指定することができる。
私たちのアプローチは、広範囲の現実世界のアプリケーションで実証されています。
論文 参考訳(メタデータ) (2023-06-15T08:33:52Z) - Quantization for decentralized learning under subspace constraints [61.59416703323886]
エージェントがサブスペース制約を最小化するために個々のコスト関数を持つ分散最適化問題を考察する。
本稿では,エージェントが確率化量子化器を用いて推定値を圧縮する適応分散型戦略を提案し,検討する。
この分析は、量子化ノイズのいくつかの一般的な条件下では、平均二乗誤差と平均ビットレートの両方で戦略が安定であることを示している。
論文 参考訳(メタデータ) (2022-09-16T09:38:38Z) - Integrating Vectorized Lexical Constraints for Neural Machine
Translation [22.300632179228426]
語彙制約付きニューラルネットワーク翻訳(NMT)は、あらかじめ指定された制約を持つNMTモデルの生成を制御する。
既存のほとんどの研究は、合成データを構築したり、語彙制約を課すために復号アルゴリズムを変更することを選び、NMTモデルをブラックボックスとして扱う。
我々は,制約を直接NMTモデルに統合することで,このブラックボックスを開くことを提案する。
論文 参考訳(メタデータ) (2022-03-23T05:54:37Z) - Rule-based Morphological Inflection Improves Neural Terminology
Translation [16.802947102163497]
ニューラルMT(NMT)にレムマ制約を組み込むモジュラーフレームワークを導入する。
これは、ソースコンテキストに基づいてターゲットのレムマ制約を屈折させる新しい言語間インフレクションモジュールに基づいている。
その結果,NMTモデルがニューラルモジュールよりも正確にレムマ制約を組み込むのに有効であり,トレーニングコストの低減を図り,既存のエンドツーエンドアプローチよりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-09-10T02:06:48Z) - A Distributional Approach to Controlled Text Generation [3.279201607581627]
予め訓練された言語モデル(LM)から制御されたテキスト生成に対処するための分布的アプローチを提案する。
このビューでは、単一の形式的なフレームワークで、ターゲット lm 上で "pointwise" と "distributional" の制約を定義することができる。
次に,我々のアプローチのユニークな特徴である分布制約に関する実験を行い,言語モデルにおけるバイアス問題に対する対策としての可能性を示す。
論文 参考訳(メタデータ) (2020-12-21T19:02:41Z) - NeuroLogic Decoding: (Un)supervised Neural Text Generation with
Predicate Logic Constraints [75.66980495245926]
条件付きテキスト生成は、しばしば語彙的な制約を必要とする。
我々は、ニューラルネットワークモデル -- 教師付きか否かに関わらず -- がフロートテキストを生成することを可能にする、シンプルで効果的なアルゴリズムであるNeuroLogic Decodingを提案する。
この結果から,制御可能な微粒化生成のための大規模ニューラルネットワークの限界と,推論時間アルゴリズムの約束が示唆された。
論文 参考訳(メタデータ) (2020-10-24T11:55:22Z) - Chance-Constrained Control with Lexicographic Deep Reinforcement
Learning [77.34726150561087]
本稿では,レキシックなDeep Reinforcement Learning(DeepRL)に基づく確率制約マルコフ決定プロセスを提案する。
有名なDeepRLアルゴリズムDQNの辞書版も提案され、シミュレーションによって検証されている。
論文 参考訳(メタデータ) (2020-10-19T13:09:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。