論文の概要: An Adversarial Multi-Task Learning Method for Chinese Text Correction
with Semantic Detection
- arxiv url: http://arxiv.org/abs/2306.16313v1
- Date: Wed, 28 Jun 2023 15:46:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 13:34:38.452513
- Title: An Adversarial Multi-Task Learning Method for Chinese Text Correction
with Semantic Detection
- Title(参考訳): 意味的検出を用いた中国語テキスト修正のための敵対的マルチタスク学習法
- Authors: Fanyu Wang and Zhenping Xie
- Abstract要約: 中国語文文脈における文字認識のモデル化と検出能力を高めるために, 逆多タスク学習法を提案する。
モンテカルロ木探索戦略とポリシーネットワークを導入し,意味検出による効率の良い中国語テキスト修正作業を実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Text correction, especially the semantic correction of more widely used
scenes, is strongly required to improve, for the fluency and writing efficiency
of the text. An adversarial multi-task learning method is proposed to enhance
the modeling and detection ability of character polysemy in Chinese sentence
context. Wherein, two models, the masked language model and scoring language
model, are introduced as a pair of not only coupled but also adversarial
learning tasks. Moreover, the Monte Carlo tree search strategy and a policy
network are introduced to accomplish the efficient Chinese text correction task
with semantic detection. The experiments are executed on three datasets and
five comparable methods, and the experimental results show that our method can
obtain good performance in Chinese text correction task for better semantic
rationality.
- Abstract(参考訳): テキストの修正、特により広く使用されるシーンのセマンティックな修正は、テキストの流速と筆記効率を改善するために強く要求される。
中国語文文脈における文字ポリセミーのモデル化と検出能力を高めるために, 対向的多タスク学習法を提案する。
そこで、マスク言語モデルとスコアリング言語モデルという2つのモデルが、結合されただけでなく、逆の学習タスクとして導入された。
さらに,モンテカルロ木探索戦略とポリシーネットワークを導入して,意味検出による中国語テキストの効率的な修正作業を実現する。
実験は,3つのデータセットと5つの比較手法を用いて実施され,本手法は,意味的合理性を高めるために,中国語テキスト修正タスクにおいて優れた性能が得られることを示す。
関連論文リスト
- Effective Cross-Task Transfer Learning for Explainable Natural Language
Inference with T5 [50.574918785575655]
2つのタスクのパフォーマンス向上という文脈において、逐次微調整とマルチタスク学習のモデルを比較した。
この結果から,2つのタスクのうち,第1のタスクにおいて逐次マルチタスク学習は良好に調整できるが,第2のタスクでは性能が低下し,過度な適合に苦しむことが明らかとなった。
論文 参考訳(メタデータ) (2022-10-31T13:26:08Z) - A Chinese Spelling Check Framework Based on Reverse Contrastive Learning [4.60495447017298]
本稿では,中国語のスペルチェックのための新しいフレームワークを提案する。
具体的には,モデルに類似事例間の合意を最小化するよう強制する,逆対比学習戦略を提案する。
実験結果から,本フレームワークはモデル非依存であり,既存の中国語スペルチェックモデルと組み合わせることで,最先端の性能が得られることが示された。
論文 参考訳(メタデータ) (2022-10-25T08:05:38Z) - Improving End-to-End Text Image Translation From the Auxiliary Text
Translation Task [26.046624228278528]
本稿では,テキスト翻訳を補助タスクとするエンドツーエンドモデルを訓練する,新しいテキスト翻訳拡張テキスト画像翻訳を提案する。
モデルパラメータとマルチタスクのトレーニングを共有することで,大規模テキスト並列コーパスを最大限に活用することができる。
論文 参考訳(メタデータ) (2022-10-08T02:35:45Z) - Vision-Language Pre-Training for Boosting Scene Text Detectors [57.08046351495244]
シーンテキスト検出に視覚言語を用いた共同学習を特に応用する。
本稿では,視覚言語による事前学習を通して,文脈化された共同表現を学習することを提案する。
事前訓練されたモデルは、よりリッチなセマンティクスでより情報的な表現を生成することができる。
論文 参考訳(メタデータ) (2022-04-29T03:53:54Z) - Text Revision by On-the-Fly Representation Optimization [76.11035270753757]
現在の最先端手法は、これらのタスクをシーケンスからシーケンスまでの学習問題として定式化している。
並列データを必要としないテキストリビジョンのための反復的なインプレース編集手法を提案する。
テキストの単純化に関する最先端の教師付き手法よりも、競争力があり、パフォーマンスも向上する。
論文 参考訳(メタデータ) (2022-04-15T07:38:08Z) - Visualizing the Relationship Between Encoded Linguistic Information and
Task Performance [53.223789395577796]
本稿では,Pareto Optimalityの観点から,符号化言語情報とタスクパフォーマンスの動的関係について検討する。
我々は、機械翻訳と言語モデリングという2つの一般的なNLPタスクの実験を行い、様々な言語情報とタスクパフォーマンスの関係について検討する。
実験結果から,NLPタスクには構文情報が有用であるのに対して,より構文情報の符号化が必ずしも優れたパフォーマンスをもたらすとは限らないことが示唆された。
論文 参考訳(メタデータ) (2022-03-29T19:03:10Z) - Improving Speech Translation by Understanding and Learning from the
Auxiliary Text Translation Task [26.703809355057224]
我々は,タスクがマルチタスク学習フレームワークにおけるメインタスクに与える影響を理解するために,詳細な分析を行う。
解析により、マルチタスク学習は、異なるモダリティから同様のデコーダ表現を生成する傾向があることを確認した。
これらの知見に触発されて,翻訳品質を向上させる3つの方法を提案する。
論文 参考訳(メタデータ) (2021-07-12T23:53:40Z) - Method of the coherence evaluation of Ukrainian text [0.0]
ウクライナ語のテキストコヒーレンス測定法について分析した。
訓練と試験はウクライナのテキストのコーパスで行われている。
テキストコヒーレンス評価のための2つの典型的なタスクを実行することで、テスト手順を実行する。
論文 参考訳(メタデータ) (2020-10-31T16:48:55Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z) - Learning Coupled Policies for Simultaneous Machine Translation using
Imitation Learning [85.70547744787]
本稿では,プログラマ-解釈ポリシーを併用した同時翻訳モデルを効率よく学習する手法を提案する。
6つの言語対の実験により,翻訳品質の点で,本手法は高いベースラインを達成できた。
論文 参考訳(メタデータ) (2020-02-11T10:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。