論文の概要: Research on Domain-Specific Chinese Spelling Correction Method Based on Plugin Extension Modules
- arxiv url: http://arxiv.org/abs/2411.09884v1
- Date: Fri, 15 Nov 2024 02:08:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-18 15:38:35.978657
- Title: Research on Domain-Specific Chinese Spelling Correction Method Based on Plugin Extension Modules
- Title(参考訳): プラグイン拡張モジュールに基づくドメイン特化中国語スペル補正法に関する研究
- Authors: Xiaowu Zhang, Hongfei Zhao, Xuan Chang,
- Abstract要約: 伝統的な中国の綴り補正モデルは一般的に一般ドメインデータセットで訓練される。
ドメイン固有の用語の特徴を学習する拡張モジュールを設計する。
この拡張モジュールは、一般的な綴り補正性能を損なうことなく、モデルにドメイン知識を提供することができる。
- 参考スコア(独自算出の注目度): 1.6044444452278062
- License:
- Abstract: This paper proposes a Chinese spelling correction method based on plugin extension modules, aimed at addressing the limitations of existing models in handling domain-specific texts. Traditional Chinese spelling correction models are typically trained on general-domain datasets, resulting in poor performance when encountering specialized terminology in domain-specific texts. To address this issue, we design an extension module that learns the features of domain-specific terminology, thereby enhancing the model's correction capabilities within specific domains. This extension module can provide domain knowledge to the model without compromising its general spelling correction performance, thus improving its accuracy in specialized fields. Experimental results demonstrate that after integrating extension modules for medical, legal, and official document domains, the model's correction performance is significantly improved compared to the baseline model without any extension modules.
- Abstract(参考訳): 本稿では,プラグイン拡張モジュールをベースとした中国語のスペル補正手法を提案する。
伝統的な中国語の綴り補正モデルは一般的に一般ドメインのデータセットで訓練されており、ドメイン固有のテキストの専門用語に遭遇すると性能が低下する。
この問題に対処するため、ドメイン固有の用語の特徴を学習する拡張モジュールを設計し、特定のドメイン内のモデルの補正能力を向上する。
この拡張モジュールは、一般的なスペル補正性能を損なうことなく、ドメイン知識をモデルに提供することができ、特殊分野における精度を向上させることができる。
実験結果から,医療用,法用,公式文書用の拡張モジュールを統合すると,拡張モジュールを含まないベースラインモデルと比較して補正性能が大幅に向上することが示された。
関連論文リスト
- Schema Augmentation for Zero-Shot Domain Adaptation in Dialogue State Tracking [16.67185296899117]
ゼロショットドメイン適応のための現在の大規模言語モデルアプローチは、ターゲットドメインに関連する知識の導入を促すことに依存している。
本研究では,言語モデルのゼロショット領域適応を微調整により改善する新しいデータ拡張手法であるAugmentationを考案する。
MultiWOZ と SpokenWOZ の実験により,提案手法はベースラインよりも大幅に改善された。
論文 参考訳(メタデータ) (2024-10-31T18:57:59Z) - Learning to Generalize Unseen Domains via Multi-Source Meta Learning for Text Classification [71.08024880298613]
テキスト分類の多元的領域一般化について検討する。
本稿では、複数の参照ドメインを使用して、未知のドメインで高い精度を達成可能なモデルをトレーニングするフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T07:46:21Z) - Boosting Large Language Models with Continual Learning for Aspect-based Sentiment Analysis [33.86086075084374]
アスペクトベース感情分析(ABSA)は感情分析の重要なサブタスクである。
ABSAのための大規模言語モデルに基づく連続学習(textttLLM-CL)モデルを提案する。
論文 参考訳(メタデータ) (2024-05-09T02:00:07Z) - DIGIC: Domain Generalizable Imitation Learning by Causal Discovery [69.13526582209165]
因果性は機械学習と組み合わせて、ドメインの一般化のための堅牢な表現を生成する。
我々は、実証データ分布を活用して、ドメインの一般化可能なポリシーの因果的特徴を発見するために、異なる試みを行っている。
DIGICと呼ばれる新しいフレームワークを設計し、実演データ分布から専門家行動の直接的な原因を見出すことにより因果的特徴を識別する。
論文 参考訳(メタデータ) (2024-02-29T07:09:01Z) - Domain Generalization via Causal Adjustment for Cross-Domain Sentiment
Analysis [59.73582306457387]
クロスドメイン感情分析における領域一般化の問題に焦点をあてる。
本稿では,ドメイン固有表現とドメイン不変表現をアンタングル化するバックドア調整に基づく因果モデルを提案する。
一連の実験は、我々のモデルの優れたパフォーマンスと堅牢性を示しています。
論文 参考訳(メタデータ) (2024-02-22T13:26:56Z) - Plug-and-Play Transformer Modules for Test-Time Adaptation [54.80435317208111]
PLUTO: Plug-and-pLay modUlar Test-time Domain AdatiOn戦略を紹介する。
私たちは、それぞれ異なるソースドメインに特化した、大規模なモジュールセットを事前訓練します。
単一の推論コールで複数の最も関連性の高いソースドメインを利用する。
論文 参考訳(メタデータ) (2024-01-06T00:24:50Z) - Explore-Instruct: Enhancing Domain-Specific Instruction Coverage through
Active Exploration [64.58185031596169]
Explore-Instructは、ドメイン固有の命令チューニングで使用されるデータカバレッジを強化する新しいアプローチである。
データ中心分析は、ドメイン固有の命令カバレッジを改善するために提案手法の有効性を検証する。
我々の発見は、特にドメイン固有の文脈において、命令カバレッジを改善するための有望な機会を提供する。
論文 参考訳(メタデータ) (2023-10-13T15:03:15Z) - Domain Private Transformers for Multi-Domain Dialog Systems [2.7013801448234367]
本稿では、条件付き言語モデルがドメイン間でリークする確率を定量化する新しい方法として、ドメインプライバシを提案する。
メンバシップ推論攻撃実験により,本手法は,近年の微分プライベート言語モデルに応用された手法に匹敵するレジリエンスを有することが示された。
論文 参考訳(メタデータ) (2023-05-23T16:27:12Z) - An Unsupervised Domain Adaptation Model based on Dual-module Adversarial
Training [20.71773278472982]
本稿では,ニューラルネットワークモデル(DANN)を代表的アルゴリズムとして,ドメイン・逆トレーニング(Domain-Adversarial Training of Neural Networks)実験を行う。
同じ入力を2つのモジュールに供給し,それぞれ特徴分布と予測結果を抽出する。
本稿では,予測結果の相違点と2つのモジュール間の特徴分布を求めるために,差分損失を提案する。
論文 参考訳(メタデータ) (2021-12-31T17:07:54Z) - DEMix Layers: Disentangling Domains for Modular Language Modeling [92.57761975953453]
入力テキストのドメイン上で言語モデル(LM)を条件付けることができる新しいドメインエキスパート混合層(DEMix)を導入する。
DEMixレイヤは専門的なフィードフォワードネットワークの集合であり、それぞれがドメインに特化している。
実験によると、DEMixレイヤはテスト時間の複雑度を低減し、トレーニングの効率を向上し、オーバーヘッドの少ない迅速な適応を可能にする。
論文 参考訳(メタデータ) (2021-08-11T05:15:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。