論文の概要: Onception: Active Learning with Expert Advice for Real World Machine
Translation
- arxiv url: http://arxiv.org/abs/2203.04507v1
- Date: Wed, 9 Mar 2022 03:32:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 15:21:00.667378
- Title: Onception: Active Learning with Expert Advice for Real World Machine
Translation
- Title(参考訳): Onception: リアルタイム機械翻訳のためのエキスパートアドバイスによるアクティブラーニング
- Authors: V\^ania Mendon\c{c}a (1 and 2), Ricardo Rei (1 and 2 and 3), Luisa
Coheur (1 and 2), Alberto Sardinha (1 and 2) ((1) INESC-ID Lisboa, (2)
Instituto Superior T\'ecnico, (3) Unbabel AI)
- Abstract要約: 機械翻訳の最も活発な学習アプローチは、ソース言語における文プールの存在を前提としており、翻訳または後編集を提供するために人間のアノテーションに依存している。
本稿では, 実世界のヒューマン・イン・ザ・ループのシナリオを仮定する。 (i) 原文は簡単には入手できないが, ストリームに到達し, (ii) 自動翻訳は, 正しい/編集された翻訳ではなく, 評価の形でフィードバックを受ける。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active learning can play an important role in low-resource settings (i.e.,
where annotated data is scarce), by selecting which instances may be more
worthy to annotate. Most active learning approaches for Machine Translation
assume the existence of a pool of sentences in a source language, and rely on
human annotators to provide translations or post-edits, which can still be
costly. In this paper, we assume a real world human-in-the-loop scenario in
which: (i) the source sentences may not be readily available, but instead
arrive in a stream; (ii) the automatic translations receive feedback in the
form of a rating, instead of a correct/edited translation, since the
human-in-the-loop might be a user looking for a translation, but not be able to
provide one. To tackle the challenge of deciding whether each incoming pair
source-translations is worthy to query for human feedback, we resort to a
number of stream-based active learning query strategies. Moreover, since we not
know in advance which query strategy will be the most adequate for a certain
language pair and set of Machine Translation models, we propose to dynamically
combine multiple strategies using prediction with expert advice. Our
experiments show that using active learning allows to converge to the best
Machine Translation systems with fewer human interactions. Furthermore,
combining multiple strategies using prediction with expert advice often
outperforms several individual active learning strategies with even fewer
interactions.
- Abstract(参考訳): アクティブラーニングは、アノテートする価値のあるインスタンスを選択することによって、低リソース設定(つまり、アノテートデータが不足している場合)において重要な役割を果たす。
機械翻訳の最も活発な学習アプローチは、ソース言語における文プールの存在を前提としており、翻訳や後編集を提供するために人間のアノテーションに依存している。
本稿では,実世界のヒューマン・イン・ザ・ループシナリオを想定する。
(i)原文は、容易には入手できないが、その代わりにストリームに到着することができる。
(二) 自動翻訳は、人文内翻訳は翻訳を探しているが提供できないユーザであるため、正しい/編集された翻訳ではなく、評価の形でフィードバックを受ける。
入力される各ペアのソース翻訳が人間のフィードバックに合うかどうかを決定するための課題として、ストリームベースのアクティブな学習クエリ戦略を数多く採用する。
さらに,特定の言語ペアと機械翻訳モデルに対して,どのクエリ戦略がもっとも適切かは事前に分かっていないので,専門家のアドバイスとともに,複数の戦略を動的に組み合わせることを提案する。
実験の結果,能動学習を用いることで,人間同士の相互作用が少なく,最高の機械翻訳システムに収束できることがわかった。
さらに、予測を使った複数の戦略と専門家のアドバイスを組み合わせることで、より少ないインタラクションで複数のアクティブな学習戦略を上回ります。
関連論文リスト
- Shortcomings of LLMs for Low-Resource Translation: Retrieval and Understanding are Both the Problem [4.830018386227]
本研究では,機械翻訳パイプラインの自動化の一環として,事前学習された大言語モデル(LLM)が低リソース言語から高リソース言語への翻訳を指示する際の文脈内学習能力について検討する。
我々は南ケチュアをスペイン語に翻訳する一連の実験を行い、デジタル化された教育材料と平行コーパスの制約されたデータベースから得られた様々な種類の文脈の情報量について検討する。
論文 参考訳(メタデータ) (2024-06-21T20:02:22Z) - Investigating Multi-Pivot Ensembling with Massively Multilingual Machine Translation Models [47.91306228406407]
複数の言語をピボットする方法を再検討する。
我々は、最も確実な予測に向けて出力をバイアスする新しい組み合わせ戦略であるMaxEnsを提案する。
平均的なマルチピボット戦略は、英語を単一のピボット言語として使うのに遅れを取っている。
論文 参考訳(メタデータ) (2023-11-13T16:15:20Z) - The Best of Both Worlds: Combining Human and Machine Translations for
Multilingual Semantic Parsing with Active Learning [50.320178219081484]
人文翻訳と機械翻訳の両方の長所を生かした能動的学習手法を提案する。
理想的な発話選択は、翻訳されたデータの誤りとバイアスを著しく低減することができる。
論文 参考訳(メタデータ) (2023-05-22T05:57:47Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Towards Best Practices for Training Multilingual Dense Retrieval Models [54.91016739123398]
我々は,このような設計を用いて,多種多様言語における単言語検索の課題に焦点をあてる。
本研究は多言語高密度検索モデルのトレーニングのための「ベストプラクティス」ガイドとして組織されている。
論文 参考訳(メタデータ) (2022-04-05T17:12:53Z) - IGLUE: A Benchmark for Transfer Learning across Modalities, Tasks, and
Languages [87.5457337866383]
画像認識言語理解評価ベンチマークについて紹介する。
IGLUEは、視覚的質問応答、クロスモーダル検索、グラウンドド推論、20言語にわたるグラウンドドエンターテイメントタスクをまとめて提供する。
翻訳-テストの転送はゼロショットの転送よりも優れており、少数ショットの学習は多くのタスクに役立てることが難しい。
論文 参考訳(メタデータ) (2022-01-27T18:53:22Z) - Self-Supervised Representations Improve End-to-End Speech Translation [57.641761472372814]
自己教師付き事前学習機能により,翻訳性能が一貫的に向上することを示す。
言語間の変換は、チューニングの必要なく、あるいはほとんどチューニングすることなく、さまざまな言語に拡張することができる。
論文 参考訳(メタデータ) (2020-06-22T10:28:38Z) - Learning Coupled Policies for Simultaneous Machine Translation using
Imitation Learning [85.70547744787]
本稿では,プログラマ-解釈ポリシーを併用した同時翻訳モデルを効率よく学習する手法を提案する。
6つの言語対の実験により,翻訳品質の点で,本手法は高いベースラインを達成できた。
論文 参考訳(メタデータ) (2020-02-11T10:56:42Z) - Exploring Benefits of Transfer Learning in Neural Machine Translation [3.7612918175471393]
本稿では,ハイリソース言語ペア上で事前学習したモデルを再利用するために,いくつかのトランスファー学習手法を提案する。
本手法は低リソース言語の特定の問題にどのように対処するかを示し,高リソース変換学習にも適していることを示す。
論文 参考訳(メタデータ) (2020-01-06T15:11:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。