論文の概要: Optimizing example selection for retrieval-augmented machine translation with translation memories
- arxiv url: http://arxiv.org/abs/2405.15070v1
- Date: Thu, 23 May 2024 21:42:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-27 18:57:45.406757
- Title: Optimizing example selection for retrieval-augmented machine translation with translation memories
- Title(参考訳): 翻訳記憶を用いた検索強化機械翻訳におけるサンプル選択の最適化
- Authors: Maxime Bouthors, Josep Crego, François Yvon,
- Abstract要約: アップストリーム検索のステップを改善し、ダウンストリーム編集に基づく修正モデルを検討することを目的としている。
このタスクは、ソース文の全体カバレッジを最大化する一連の例を見つけることで構成される。
機械翻訳作業における結果のパフォーマンス向上を評価した。
- 参考スコア(独自算出の注目度): 9.67203800171351
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-augmented machine translation leverages examples from a translation memory by retrieving similar instances. These examples are used to condition the predictions of a neural decoder. We aim to improve the upstream retrieval step and consider a fixed downstream edit-based model: the multi-Levenshtein Transformer. The task consists of finding a set of examples that maximizes the overall coverage of the source sentence. To this end, we rely on the theory of submodular functions and explore new algorithms to optimize this coverage. We evaluate the resulting performance gains for the machine translation task.
- Abstract(参考訳): Retrieval-augmented machine translationは、類似のインスタンスを検索することで、翻訳メモリからのサンプルを活用する。
これらの例は、ニューラルデコーダの予測を条件付けるために使用される。
我々は、上流検索のステップを改善し、下流編集ベースのモデルであるマルチLevenshtein Transformerを検討することを目指している。
このタスクは、ソース文の全体カバレッジを最大化する一連の例を見つけることで構成される。
この目的のために、我々は部分モジュラ函数の理論に頼り、このカバレッジを最適化するための新しいアルゴリズムを探索する。
機械翻訳作業における結果のパフォーマンス向上を評価する。
関連論文リスト
- Balancing Diversity and Risk in LLM Sampling: How to Select Your Method and Parameter for Open-Ended Text Generation [60.493180081319785]
本稿では,各復号工程における多様性とリスクのトレードオフを考慮し,トラクションサンプリング手法の本質的な能力を推定する体系的手法を提案する。
本研究は,既存のトラクションサンプリング手法の総合的な比較と,ユーザのガイドラインとして推奨されるパラメータについて紹介する。
論文 参考訳(メタデータ) (2024-08-24T14:14:32Z) - Towards Example-Based NMT with Multi-Levenshtein Transformers [5.809002150112752]
私たちは、RAMTの翻訳決定をより透過的にする能力について研究し、ユーザがこれらの決定に寄与した例に戻ることができるようにしました。
このモデルは、Levenshtein Transformerの検索拡張バージョンに適応し、メモリにある複数のファジィマッチングを同時に編集できるようにする。
実験の結果,いくつかの例の編集が翻訳スコアに肯定的な影響を与えていること,特に既存のインスタンスからコピーしたターゲットスパンの数の増加が示唆された。
論文 参考訳(メタデータ) (2023-10-13T09:18:57Z) - Uncovering mesa-optimization algorithms in Transformers [61.06055590704677]
いくつかの自己回帰モデルは、入力シーケンスが処理されたときに学習でき、パラメータの変更を受けずに、それを行うように明示的に訓練されていない。
我々は,新しい入力が明らかになったときにモデルを調整するための補助学習アルゴリズムが,標準の次トーケン予測誤差最小化によって生まれることを示す。
本研究は、自己回帰損失最小化の産物としてコンテキスト内学習を説明し、新しい最適化ベースのトランスフォーマー層の設計を通知する。
論文 参考訳(メタデータ) (2023-09-11T22:42:50Z) - A Relaxed Optimization Approach for Adversarial Attacks against Neural
Machine Translation Models [44.04452616807661]
本稿では,ニューラルネットワーク翻訳(NMT)モデルに対する最適化に基づく逆攻撃を提案する。
実験の結果,NMTモデルの翻訳品質は有意に低下した。
我々の攻撃は、成功率、類似性保存、翻訳品質への影響、トークンエラー率の点で、ベースラインを上回っている。
論文 参考訳(メタデータ) (2023-06-14T13:13:34Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z) - Finding Support Examples for In-Context Learning [73.90376920653507]
本稿では,この課題を2段階に解決するためのfilter-thEN-Search法であるLENSを提案する。
まず、データセットをフィルタリングして、個別に情報的インコンテキストの例を得る。
そこで本研究では,反復的に改良し,選択したサンプル順列を評価可能な多様性誘導型サンプル探索を提案する。
論文 参考訳(メタデータ) (2023-02-27T06:32:45Z) - HanoiT: Enhancing Context-aware Translation via Selective Context [95.93730812799798]
コンテキスト対応ニューラルネットワーク翻訳は、文書レベルのコンテキストを使用して翻訳品質を改善することを目的としている。
無関係または自明な単語は、いくつかのノイズをもたらし、モデルが現在の文と補助的な文脈の関係を学ぶのを邪魔する可能性がある。
そこで本稿では,階層的選択機構を備えたエンド・ツー・エンドのエンコーダ・デコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-17T12:07:13Z) - In-context Examples Selection for Machine Translation [101.50473468507697]
大規模生成モデルは、コンテキスト内学習を用いて、幅広い自然言語処理(NLP)タスクを実行するという印象的な能力を示している。
機械翻訳(MT)の場合、これらの例は、通常、開発データセットからランダムにサンプリングされ、評価セットと同じような分布を持つ。
テキスト内サンプルの翻訳品質とドメインが重要であり,1ショットノイズ非関連例が出力品質に破滅的な影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2022-12-05T17:25:15Z) - Simplify-then-Translate: Automatic Preprocessing for Black-Box Machine
Translation [5.480070710278571]
文の単純化による自動前処理(APP)によるブラックボックス機械翻訳システムの改善手法を提案する。
まず,ブラックボックスMTシステムによるバックトランスレーションにより,大規模なドメイン内パラフレーズコーパスを自動生成する手法を提案する。
この前処理によって、非前処理のソース文と比較して翻訳性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-22T14:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。