論文の概要: Extending Word-Level Quality Estimation for Post-Editing Assistance
- arxiv url: http://arxiv.org/abs/2209.11378v1
- Date: Fri, 23 Sep 2022 02:42:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 14:00:58.423483
- Title: Extending Word-Level Quality Estimation for Post-Editing Assistance
- Title(参考訳): 編集後支援のための単語レベル品質推定の拡張
- Authors: Yizhen Wei, Takehito Utsuro, Masaaki Nagata
- Abstract要約: そこで我々は,改良されたタグと単語レベルの対応を出力する改良された単語レベルQEという新しいタスクを提案する。
従来の単語レベルのQEと比較して、新しいタスクは直接編集操作を指摘でき、効率が向上する。
- 参考スコア(独自算出の注目度): 16.74598904954216
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We define a novel concept called extended word alignment in order to improve
post-editing assistance efficiency. Based on extended word alignment, we
further propose a novel task called refined word-level QE that outputs refined
tags and word-level correspondences. Compared to original word-level QE, the
new task is able to directly point out editing operations, thus improves
efficiency. To extract extended word alignment, we adopt a supervised method
based on mBERT. To solve refined word-level QE, we firstly predict original QE
tags by training a regression model for sequence tagging based on mBERT and
XLM-R. Then, we refine original word tags with extended word alignment. In
addition, we extract source-gap correspondences, meanwhile, obtaining gap tags.
Experiments on two language pairs show the feasibility of our method and give
us inspirations for further improvement.
- Abstract(参考訳): 編集後支援効率を向上させるために,拡張単語アライメントという新しい概念を定義した。
拡張された単語アライメントに基づいて,改良されたタグと単語レベルの対応を出力する改良された単語レベルQEを提案する。
従来の単語レベルのQEと比較して、新しいタスクは直接編集操作を指摘でき、効率が向上する。
拡張単語アライメントを抽出するために,mBERTに基づく教師付き手法を採用する。
まず,mBERT と XLM-R に基づく逐次タグ付けの回帰モデルを訓練することにより,単語レベルQE の精度向上を図る。
そして、拡張された単語アライメントで元の単語タグを洗練する。
さらに,ソースギャップ対応を抽出し,ギャップタグを取得する。
2つの言語ペアにおける実験は,提案手法の実現可能性を示し,さらなる改善のためのインスピレーションを与える。
関連論文リスト
- A Novel Prompt-tuning Method: Incorporating Scenario-specific Concepts
into a Verbalizer [15.612761980503658]
シナリオ固有の概念を取り入れたラベルワード構築プロセスを提案する。
具体的には,タスク固有のシナリオから,ラベルワード候補としてリッチな概念を抽出する。
そこで我々は,各クラスのラベル単語の集合として候補を洗練するための新しいカスケードキャリブレーションモジュールを開発した。
論文 参考訳(メタデータ) (2024-01-10T15:02:35Z) - Unify word-level and span-level tasks: NJUNLP's Participation for the
WMT2023 Quality Estimation Shared Task [59.46906545506715]
我々は、WMT 2023 Quality Estimation (QE)共有タスクにNJUNLPチームを紹介する。
私たちのチームは2つのサブタスクすべてで英語とドイツ語のペアの予測を提出しました。
我々のモデルは、単語レベルと細粒度エラースパン検出サブタスクの両方において、英語とドイツ語で最高の結果を得た。
論文 参考訳(メタデータ) (2023-09-23T01:52:14Z) - Rethink about the Word-level Quality Estimation for Machine Translation
from Human Judgement [57.72846454929923]
ベンチマークデータセットであるemphHJQEを作成し、専門家翻訳者が不適切な翻訳語を直接アノテートする。
本稿では,タグリファインメント戦略と木ベースのアノテーション戦略という2つのタグ補正戦略を提案し,TERベースの人工QEコーパスをemphHJQEに近づける。
その結果,提案したデータセットは人間の判断と一致しており,また,提案したタグ補正戦略の有効性も確認できた。
論文 参考訳(メタデータ) (2022-09-13T02:37:12Z) - MarkBERT: Marking Word Boundaries Improves Chinese BERT [67.53732128091747]
MarkBERTは、語彙を漢字として保持し、連続した単語間の境界マーカーを挿入する。
従来の単語ベースのBERTモデルと比較して、MarkBERTはテキスト分類、キーワード認識、意味的類似性タスクにおいて精度が向上している。
論文 参考訳(メタデータ) (2022-03-12T08:43:06Z) - Towards Document-Level Paraphrase Generation with Sentence Rewriting and
Reordering [88.08581016329398]
文書レベルのパラフレーズ生成のためのCoRPG(Coherence Relation Guided Paraphrase Generation)を提案する。
グラフGRUを用いて、コヒーレンス関係グラフを符号化し、各文のコヒーレンス対応表現を得る。
我々のモデルは、より多様性とセマンティックな保存を伴う文書パラフレーズを生成することができる。
論文 参考訳(メタデータ) (2021-09-15T05:53:40Z) - Levenshtein Training for Word-level Quality Estimation [15.119782800097711]
Levenshtein TransformerはワードレベルのQEタスクに自然に適合する。
Levenshtein Transformerは、明示的な監督なしに後編集を学ぶことができる。
論文 参考訳(メタデータ) (2021-09-12T20:45:48Z) - PALI at SemEval-2021 Task 2: Fine-Tune XLM-RoBERTa for Word in Context
Disambiguation [6.243389472463914]
本稿では、SemEval-2021 Task 2: Multilingual and Cross-lingual Word-in-Context Disambiguationの受賞システムについて述べる。
我々はXLM-RoBERTaモデルを微調整し、文脈の曖昧さを解消する。
我々は4つの言語横断タスクで1位に達した。
論文 参考訳(メタデータ) (2021-04-21T06:24:49Z) - Adapting BERT for Word Sense Disambiguation with Gloss Selection
Objective and Example Sentences [18.54615448101203]
BERTのような事前訓練された言語モデルを用いたドメイン適応や伝達学習は、多くの自然言語処理タスクにおいて効果的なアプローチであることが証明されている。
関連性ランキングタスクとして単語感覚の曖昧さを定式化し、シーケンスペアランキングタスクで細いBERTを用いて、最も確率の高い感覚定義を選択することを提案する。
論文 参考訳(メタデータ) (2020-09-24T16:37:04Z) - Keyword-Attentive Deep Semantic Matching [1.8416014644193064]
本稿では,深いセマンティックマッチングを改善するためのキーワード付きアプローチを提案する。
まず、大きなコーパスからのドメインタグを利用して、ドメインを拡張したキーワード辞書を生成する。
モデル学習中,入力ペア間のキーワードカバレッジに基づく新しいネガティブサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-03-11T10:18:32Z) - Learning to Select Bi-Aspect Information for Document-Scale Text Content
Manipulation [50.01708049531156]
我々は、テキストスタイルの転送とは逆の文書スケールのテキストコンテンツ操作という、新しい実践的なタスクに焦点を当てる。
詳細は、入力は構造化されたレコードと、別のレコードセットを記述するための参照テキストのセットである。
出力は、ソースレコードセットの部分的内容と参照の書き込みスタイルを正確に記述した要約である。
論文 参考訳(メタデータ) (2020-02-24T12:52:10Z) - On the Importance of Word Order Information in Cross-lingual Sequence
Labeling [80.65425412067464]
ソース言語の単語順に適合する言語間モデルでは、ターゲット言語を処理できない可能性がある。
本研究では,ソース言語の単語順序に敏感なモデルを作成することで,対象言語の適応性能が向上するかどうかを検討する。
論文 参考訳(メタデータ) (2020-01-30T03:35:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。