論文の概要: Learning from others' mistakes: Finetuning machine translation models with span-level error annotations
- arxiv url: http://arxiv.org/abs/2410.16509v1
- Date: Mon, 21 Oct 2024 21:00:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:30:13.287395
- Title: Learning from others' mistakes: Finetuning machine translation models with span-level error annotations
- Title(参考訳): 他者の誤りから学ぶ:スパンレベルのエラーアノテーションを用いた機械翻訳モデル
- Authors: Lily H. Zhang, Hamid Dadkhahi, Mara Finkelstein, Firas Trabelsi, Jiaming Luo, Markus Freitag,
- Abstract要約: このような注釈付きデータに基づいて機械翻訳モデルを直接訓練するために、ターゲットスパンを用いたトレーニングと呼ばれる単純な微調整アルゴリズムを開発した。
英語とドイツ語と中国語の機械翻訳の実験では、TWAは品質のためにフィルタリングされたシーケンス上のSupervised FineTuningのようなベースラインよりも優れていた。
- 参考スコア(独自算出の注目度): 21.28831336284991
- License:
- Abstract: Despite growing interest in incorporating feedback to improve language models, most efforts focus only on sequence-level annotations. In this work, we explore the potential of utilizing fine-grained span-level annotations from offline datasets to improve model quality. We develop a simple finetuning algorithm, called Training with Annotations (TWA), to directly train machine translation models on such annotated data. TWA utilizes targeted span-level error information while also flexibly learning what to penalize within a span. Moreover, TWA considers the overall trajectory of a sequence when deciding which non-error spans to utilize as positive signals. Experiments on English-German and Chinese-English machine translation show that TWA outperforms baselines such as Supervised FineTuning on sequences filtered for quality and Direct Preference Optimization on pairs constructed from the same data.
- Abstract(参考訳): 言語モデルを改善するためにフィードバックを取り入れることへの関心が高まっているが、ほとんどの取り組みはシーケンスレベルのアノテーションのみに焦点を当てている。
本研究では、オフラインデータセットから細粒度のスパンレベルのアノテーションを利用してモデル品質を向上させる可能性について検討する。
我々は,このような注釈付きデータに基づいて機械翻訳モデルを直接訓練する,TWA(Training with Annotations)と呼ばれる単純な微調整アルゴリズムを開発した。
TWAはターゲットのスパンレベルのエラー情報を使用し、スパン内で何を行うかを柔軟に学習する。
さらに、TWAは、どの非エラー範囲が正の信号として利用されるかを決定する際に、シーケンスの全体軌道を考える。
英語とドイツ語と中国語の機械翻訳の実験では、TWAは品質のためにフィルタリングされたシーケンスのSupervised FineTuningや、同じデータから構築されたペアの直接選好最適化など、ベースラインよりも優れていた。
関連論文リスト
- Less for More: Enhancing Preference Learning in Generative Language Models with Automated Self-Curation of Training Corpora [4.008122785948581]
言語における曖昧さは、より強化された言語モデルを開発する上での課題である。
本稿では,これらのデータセットを直接トレーニングしたプロキシモデルを活用することで,アノテーション付きデータセットを前処理するセルフキュレーション手法を提案する。
提案手法は,データセット内の曖昧なアノテーションを自動的に検出し,削除することにより,嗜好学習を強化する。
論文 参考訳(メタデータ) (2024-08-23T02:27:14Z) - Instruction Position Matters in Sequence Generation with Large Language
Models [67.87516654892343]
大規模言語モデル(LLM)は、翻訳や要約といった条件付きシーケンス生成タスクを実行することができる。
入力文の後にタスク命令の位置をシフトさせることにより,LLMの指示追従能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-08-23T12:36:57Z) - Improving Domain-Specific Retrieval by NLI Fine-Tuning [64.79760042717822]
本稿では、自然言語推論(NLI)データの微調整の可能性を調べ、情報検索とランキングを改善する。
コントラスト損失とNLIデータを利用した教師あり手法により細調整された単言語文エンコーダと多言語文エンコーダを併用する。
この結果から,NLIの微調整によりタスクおよび言語間のモデルの性能が向上し,単言語モデルと多言語モデルが改良される可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-06T12:40:58Z) - LM-CPPF: Paraphrasing-Guided Data Augmentation for Contrastive
Prompt-Based Few-Shot Fine-Tuning [7.543506531838883]
本稿では,言語モデルの微調整手法であるLM-CPPFを提案する。
複数のテキスト分類ベンチマーク実験により, この拡張法が他の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-05-29T15:59:51Z) - A Systematic Analysis of Vocabulary and BPE Settings for Optimal
Fine-tuning of NMT: A Case Study of In-domain Translation [0.0]
語彙とSWトークン化の選択は、トレーニングとNMTモデルの微調整の両方に重大な影響を与える。
本研究では、SWトークン化と語彙生成のための異なる戦略と、ドメイン固有モデルを微調整するための最適な設定を明らかにするための究極の目標を比較する。
論文 参考訳(メタデータ) (2023-03-01T18:26:47Z) - CROP: Zero-shot Cross-lingual Named Entity Recognition with Multilingual
Labeled Sequence Translation [113.99145386490639]
言語間NERは、整列した言語間表現や機械翻訳結果を通じて、言語間で知識を伝達することができる。
ゼロショット言語間NERを実現するために,クロスランガル・エンティティ・プロジェクション・フレームワーク(CROP)を提案する。
多言語ラベル付きシーケンス翻訳モデルを用いて、タグ付けされたシーケンスをターゲット言語に投影し、ターゲットの原文にラベル付けする。
論文 参考訳(メタデータ) (2022-10-13T13:32:36Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - Consistency Regularization for Cross-Lingual Fine-Tuning [61.08704789561351]
整合性正規化による言語間微調整の改善を提案する。
具体的には、例の整合性正規化を用いて、予測感度を4種類のデータ拡張にペナルティ化する。
XTREMEベンチマークの実験結果から,本手法は様々なタスクにおける言語間微調整を大幅に改善することが示された。
論文 参考訳(メタデータ) (2021-06-15T15:35:44Z) - Selecting Informative Contexts Improves Language Model Finetuning [66.26521454263343]
本稿では,情報ゲインフィルタと呼ぶ汎用的な微調整手法を提案する。
微調整中、二次学習者は情報的例を選択し、非情報的例をスキップする。
提案手法は,データセット,微調整タスク,言語モデルアーキテクチャ間で一貫した改善がなされていることを示す。
論文 参考訳(メタデータ) (2020-05-01T02:01:18Z) - Improving Training on Noisy Stuctured Labels [17.835042432662846]
本稿では,細粒度アノテーションにおける構造化誤りの有無を学習する上での課題を解決するために,誤り訂正ネットワーク(ECN)の新たなフレームワークを提案する。
ECNは、ノイズの多いデータに対するトレーニングのための標準的なアプローチと比較して、きめ細かいアノテーションの予測を大幅に改善する。
論文 参考訳(メタデータ) (2020-03-08T22:55:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。