論文の概要: Optimizing example selection for retrieval-augmented machine translation with translation memories
- arxiv url: http://arxiv.org/abs/2405.15070v1
- Date: Thu, 23 May 2024 21:42:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-27 18:57:45.406757
- Title: Optimizing example selection for retrieval-augmented machine translation with translation memories
- Title(参考訳): 翻訳記憶を用いた検索強化機械翻訳におけるサンプル選択の最適化
- Authors: Maxime Bouthors, Josep Crego, François Yvon,
- Abstract要約: アップストリーム検索のステップを改善し、ダウンストリーム編集に基づく修正モデルを検討することを目的としている。
このタスクは、ソース文の全体カバレッジを最大化する一連の例を見つけることで構成される。
機械翻訳作業における結果のパフォーマンス向上を評価した。
- 参考スコア(独自算出の注目度): 9.67203800171351
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-augmented machine translation leverages examples from a translation memory by retrieving similar instances. These examples are used to condition the predictions of a neural decoder. We aim to improve the upstream retrieval step and consider a fixed downstream edit-based model: the multi-Levenshtein Transformer. The task consists of finding a set of examples that maximizes the overall coverage of the source sentence. To this end, we rely on the theory of submodular functions and explore new algorithms to optimize this coverage. We evaluate the resulting performance gains for the machine translation task.
- Abstract(参考訳): Retrieval-augmented machine translationは、類似のインスタンスを検索することで、翻訳メモリからのサンプルを活用する。
これらの例は、ニューラルデコーダの予測を条件付けるために使用される。
我々は、上流検索のステップを改善し、下流編集ベースのモデルであるマルチLevenshtein Transformerを検討することを目指している。
このタスクは、ソース文の全体カバレッジを最大化する一連の例を見つけることで構成される。
この目的のために、我々は部分モジュラ函数の理論に頼り、このカバレッジを最適化するための新しいアルゴリズムを探索する。
機械翻訳作業における結果のパフォーマンス向上を評価する。
関連論文リスト
- Towards Example-Based NMT with Multi-Levenshtein Transformers [5.809002150112752]
私たちは、RAMTの翻訳決定をより透過的にする能力について研究し、ユーザがこれらの決定に寄与した例に戻ることができるようにしました。
このモデルは、Levenshtein Transformerの検索拡張バージョンに適応し、メモリにある複数のファジィマッチングを同時に編集できるようにする。
実験の結果,いくつかの例の編集が翻訳スコアに肯定的な影響を与えていること,特に既存のインスタンスからコピーしたターゲットスパンの数の増加が示唆された。
論文 参考訳(メタデータ) (2023-10-13T09:18:57Z) - A Relaxed Optimization Approach for Adversarial Attacks against Neural
Machine Translation Models [44.04452616807661]
本稿では,ニューラルネットワーク翻訳(NMT)モデルに対する最適化に基づく逆攻撃を提案する。
実験の結果,NMTモデルの翻訳品質は有意に低下した。
我々の攻撃は、成功率、類似性保存、翻訳品質への影響、トークンエラー率の点で、ベースラインを上回っている。
論文 参考訳(メタデータ) (2023-06-14T13:13:34Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z) - Finding Support Examples for In-Context Learning [73.90376920653507]
本稿では,この課題を2段階に解決するためのfilter-thEN-Search法であるLENSを提案する。
まず、データセットをフィルタリングして、個別に情報的インコンテキストの例を得る。
そこで本研究では,反復的に改良し,選択したサンプル順列を評価可能な多様性誘導型サンプル探索を提案する。
論文 参考訳(メタデータ) (2023-02-27T06:32:45Z) - HanoiT: Enhancing Context-aware Translation via Selective Context [95.93730812799798]
コンテキスト対応ニューラルネットワーク翻訳は、文書レベルのコンテキストを使用して翻訳品質を改善することを目的としている。
無関係または自明な単語は、いくつかのノイズをもたらし、モデルが現在の文と補助的な文脈の関係を学ぶのを邪魔する可能性がある。
そこで本稿では,階層的選択機構を備えたエンド・ツー・エンドのエンコーダ・デコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-17T12:07:13Z) - In-context Examples Selection for Machine Translation [101.50473468507697]
大規模生成モデルは、コンテキスト内学習を用いて、幅広い自然言語処理(NLP)タスクを実行するという印象的な能力を示している。
機械翻訳(MT)の場合、これらの例は、通常、開発データセットからランダムにサンプリングされ、評価セットと同じような分布を持つ。
テキスト内サンプルの翻訳品質とドメインが重要であり,1ショットノイズ非関連例が出力品質に破滅的な影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2022-12-05T17:25:15Z) - Simplify-then-Translate: Automatic Preprocessing for Black-Box Machine
Translation [5.480070710278571]
文の単純化による自動前処理(APP)によるブラックボックス機械翻訳システムの改善手法を提案する。
まず,ブラックボックスMTシステムによるバックトランスレーションにより,大規模なドメイン内パラフレーズコーパスを自動生成する手法を提案する。
この前処理によって、非前処理のソース文と比較して翻訳性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-22T14:15:53Z) - Neural Syntactic Preordering for Controlled Paraphrase Generation [57.5316011554622]
私たちの研究は、構文変換を使用して、ソース文をソフトに"リオーダー"し、神経パラフレージングモデルをガイドします。
まず、入力文が与えられた場合、エンコーダ・デコーダモデルを用いて、実行可能な構文再構成のセットを導出する。
次に、提案した各再構成を用いて位置埋め込みのシーケンスを生成し、最終的なエンコーダ-デコーダパラフレーズモデルが特定の順序でソース語に従属することを奨励する。
論文 参考訳(メタデータ) (2020-05-05T09:02:25Z) - Informative Sample Mining Network for Multi-Domain Image-to-Image
Translation [101.01649070998532]
本稿では,画像から画像への翻訳作業において,サンプル選択戦略の改善が有効であることを示す。
本稿では,サンプルの硬さを抑えつつ,サンプルの硬さを抑えるための新しい多段階サンプルトレーニング手法を提案する。
論文 参考訳(メタデータ) (2020-01-05T05:48:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。