論文の概要: Rethinking the Roles of Large Language Models in Chinese Grammatical
Error Correction
- arxiv url: http://arxiv.org/abs/2402.11420v1
- Date: Sun, 18 Feb 2024 01:40:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 21:23:17.583991
- Title: Rethinking the Roles of Large Language Models in Chinese Grammatical
Error Correction
- Title(参考訳): 中国語文法誤り訂正における大規模言語モデルの役割の再考
- Authors: Yinghui Li, Shang Qin, Jingheng Ye, Shirong Ma, Yangning Li, Libo Qin,
Xuming Hu, Wenhao Jiang, Hai-Tao Zheng, Philip S. Yu
- Abstract要約: 中国語の文法的誤り訂正(CGEC)は、入力文中のすべての文法的誤りを修正することを目的としている。
CGECの修正器としてのLLMの性能は、課題の焦点が難しいため不満足なままである。
CGECタスクにおけるLCMの役割を再考し、CGECでよりよく活用し、探索できるようにした。
- 参考スコア(独自算出の注目度): 62.409807640887834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Large Language Models (LLMs) have been widely studied by
researchers for their roles in various downstream NLP tasks. As a fundamental
task in the NLP field, Chinese Grammatical Error Correction (CGEC) aims to
correct all potential grammatical errors in the input sentences. Previous
studies have shown that LLMs' performance as correctors on CGEC remains
unsatisfactory due to its challenging task focus. To promote the CGEC field to
better adapt to the era of LLMs, we rethink the roles of LLMs in the CGEC task
so that they can be better utilized and explored in CGEC. Considering the rich
grammatical knowledge stored in LLMs and their powerful semantic understanding
capabilities, we utilize LLMs as explainers to provide explanation information
for the CGEC small models during error correction to enhance performance. We
also use LLMs as evaluators to bring more reasonable CGEC evaluations, thus
alleviating the troubles caused by the subjectivity of the CGEC task. In
particular, our work is also an active exploration of how LLMs and small models
better collaborate in downstream tasks. Extensive experiments and detailed
analyses on widely used datasets verify the effectiveness of our thinking
intuition and the proposed methods.
- Abstract(参考訳): 近年,Large Language Models (LLMs) は下流NLPタスクにおける役割について研究者によって広く研究されている。
NLP分野における基本的な課題として、中国語文法誤り訂正(CGEC)は、入力文中のすべての文法的誤りを修正することを目的としている。
これまでの研究では、LCMがCGECの修正子としての性能は、課題の焦点が難しいため、未だに満足できないことが示されている。
CGEC における LLM の役割を再考し, CGEC における LLM の活用と探索について検討した。
LLMに格納されている豊富な文法知識とその強力な意味理解能力を考慮すると、LCMを説明者として利用し、エラー修正時にCGEC小モデルの説明情報を提供し、性能を向上させる。
また,LCMを評価指標として,より合理的なCGEC評価を実現し,CGECタスクの主観性による問題を軽減する。
特に私たちの仕事は、下流のタスクにおいてllmと小さなモデルがどのように協調するかを積極的に探究するものです。
広く使われているデータセットに関する広範な実験と詳細な分析は、我々の思考直感と提案手法の有効性を検証する。
関連論文リスト
- Evaluating Linguistic Capabilities of Multimodal LLMs in the Lens of Few-Shot Learning [15.919493497867567]
本研究では,VALSEベンチマークを用いたマルチモーダル大規模言語モデル(MLLM)の性能評価を目的とした。
我々は,モデルサイズや事前学習データセットの異なる最先端MLLMの包括的評価を行った。
論文 参考訳(メタデータ) (2024-07-17T11:26:47Z) - Can LLMs Solve longer Math Word Problems Better? [47.227621867242]
数学語問題(MWP)は、大規模言語モデル(LLM)の能力を評価する上で重要な役割を果たす。
より長い文脈が数学的推論に与える影響は未解明のままである。
本研究は文脈長一般化可能性(CoLeG)の研究の先駆者である。
論文 参考訳(メタデータ) (2024-05-23T17:13:50Z) - Automated Commit Message Generation with Large Language Models: An Empirical Study and Beyond [24.151927600694066]
コミットメッセージ生成(CMG)アプローチは、与えられたコード差分に基づいてコミットメッセージを自動的に生成することを目的としている。
本稿では,Large Language Models (LLMs) を用いて高品質なコミットメッセージの生成にどの程度の期間を費やしてきたかを調べるための,最初の包括的な実験を行う。
論文 参考訳(メタデータ) (2024-04-23T08:24:43Z) - The Strong Pull of Prior Knowledge in Large Language Models and Its Impact on Emotion Recognition [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理のための強力なパラダイムとして登場した。
LLMには、感情認識において強いが矛盾する先行性があり、その予測に影響を及ぼすことが示される。
以上の結果から,ICLをより大きなLCMで事前学習領域外の情動中心タスクに使用する場合,注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:07:32Z) - FAC$^2$E: Better Understanding Large Language Model Capabilities by Dissociating Language and Cognition [56.76951887823882]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - Unsupervised Information Refinement Training of Large Language Models for Retrieval-Augmented Generation [128.01050030936028]
InFO-RAG という情報改質訓練手法を提案する。
InFO-RAGは低コストで、様々なタスクにまたがっている。
LLaMA2の性能を平均9.39%向上させる。
論文 参考訳(メタデータ) (2024-02-28T08:24:38Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - TRACE: A Comprehensive Benchmark for Continual Learning in Large
Language Models [52.734140807634624]
調整された大規模言語モデル(LLM)は、タスク解決、指示に従うこと、安全性を確保することにおいて、例外的な能力を示す。
既存の連続学習ベンチマークでは、LLMをリードする上で十分な課題が欠如している。
LLMにおける継続学習を評価するための新しいベンチマークであるTRACEを紹介する。
論文 参考訳(メタデータ) (2023-10-10T16:38:49Z) - Through the Lens of Core Competency: Survey on Evaluation of Large
Language Models [27.271533306818732]
大規模言語モデル(LLM)は優れた性能と幅広い実用性を持っている。
既存の評価タスクは、現実世界のシナリオにおける幅広いアプリケーションに追いつくのは難しい。
LLMの4つのコア能力は、推論、知識、信頼性、安全性などである。
この能力アーキテクチャの下では、類似したタスクを組み合わせて対応する能力を反映し、新しいタスクをシステムに簡単に追加することができる。
論文 参考訳(メタデータ) (2023-08-15T17:40:34Z) - Exploring the Integration of Large Language Models into Automatic Speech
Recognition Systems: An Empirical Study [0.0]
本稿では,Large Language Models (LLM) と自動音声認識(ASR)システムの統合について検討する。
我々の主な焦点は、LLMのコンテキスト内学習機能を用いて、ASRシステムの性能を向上させる可能性を調査することである。
論文 参考訳(メタデータ) (2023-07-13T02:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。