論文の概要: Comparing human and LLM proofreading in L2 writing: Impact on lexical and syntactic features
- arxiv url: http://arxiv.org/abs/2506.09021v2
- Date: Wed, 11 Jun 2025 05:37:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-12 16:13:48.093067
- Title: Comparing human and LLM proofreading in L2 writing: Impact on lexical and syntactic features
- Title(参考訳): L2書記における人間とLLMの証明読解の比較:語彙的・統語的特徴への影響
- Authors: Hakyung Sung, Karla Csuros, Min-Chang Sung,
- Abstract要約: 本研究は,人間とLLMの語彙的・統語的介入について検討し,同一の第二言語文における全体的理解性の向上を目的とした。
ヒトとLLMの証明読解はともにビッグラムの語彙的特徴を増強し、隣接する単語間のコヒーレンスと文脈的結合性の向上に寄与する可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study examines the lexical and syntactic interventions of human and LLM proofreading aimed at improving overall intelligibility in identical second language writings, and evaluates the consistency of outcomes across three LLMs (ChatGPT-4o, Llama3.1-8b, Deepseek-r1-8b). Findings show that both human and LLM proofreading enhance bigram lexical features, which may contribute to better coherence and contextual connectedness between adjacent words. However, LLM proofreading exhibits a more generative approach, extensively reworking vocabulary and sentence structures, such as employing more diverse and sophisticated vocabulary and incorporating a greater number of adjective modifiers in noun phrases. The proofreading outcomes are highly consistent in major lexical and syntactic features across the three models.
- Abstract(参考訳): 本研究は,人間とLLMの語彙的・統語的介入について,同一の第二言語文における全体的な知能性向上を目的として検討し,3つのLLM(ChatGPT-4o,Llama3.1-8b,Deepseek-r1-8b)における結果の整合性を評価する。
ヒトとLLMの証明読解はともにビッグラムの語彙的特徴を増強し、隣接する単語間のコヒーレンスと文脈的結合性の向上に寄与する可能性が示唆された。
しかし、LLM証明は、より多様で洗練された語彙を使い、名詞句に多くの形容詞修飾子を組み込むなど、語彙と文構造を広範囲に再構築する、より生成的なアプローチを示す。
証明の結果は、3つのモデルにわたる主要な語彙的および構文的特徴に非常に整合性がある。
関連論文リスト
- Exploiting the English Vocabulary Profile for L2 word-level vocabulary assessment with LLMs [2.201161230389126]
本稿では,語彙のきめ細かい評価を可能にする新しい手法を提案する。
このスキームは、大きな言語モデル(LLM)と英語語彙プロファイル(EVP)を組み合わせたものである。
EVPは標準の語彙資源であり、文脈内語彙の使用を習熟度にリンクすることができる。
論文 参考訳(メタデータ) (2025-06-03T11:23:57Z) - Examining Linguistic Shifts in Academic Writing Before and After the Launch of ChatGPT: A Study on Preprint Papers [7.161475868971293]
大規模言語モデル(LLM)は学術的な著作への影響について学術的な懸念を引き起こしている。
我々は、arXivデータセットから過去10年間に発表された823,798件の要約を大規模に分析した。
論文 参考訳(メタデータ) (2025-05-18T03:35:43Z) - Inclusivity in Large Language Models: Personality Traits and Gender Bias in Scientific Abstracts [49.97673761305336]
我々は,3つの大きな言語モデル (LLM) を,人間の物語スタイルと潜在的な性別バイアスに適合させることで評価した。
以上の結果から,これらのモデルは一般的にヒトの投稿内容によく似たテキストを生成するが,スタイル的特徴の変化は有意な性差を示すことが示唆された。
論文 参考訳(メタデータ) (2024-06-27T19:26:11Z) - Talking the Talk Does Not Entail Walking the Walk: On the Limits of Large Language Models in Lexical Entailment Recognition [3.8623569699070357]
本研究では,8つの大言語モデルが動詞間の語彙的含意関係を認識する能力について検討する。
以上の結果から,モデルが適度に良好な性能で語彙的包含認識タスクに対処できることが判明した。
論文 参考訳(メタデータ) (2024-06-21T06:30:16Z) - FAC$^2$E: Better Understanding Large Language Model Capabilities by Dissociating Language and Cognition [56.76951887823882]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - Boosting Large Language Model for Speech Synthesis: An Empirical Study [86.89548753080432]
大規模言語モデル(LLM)は自然言語処理において大きな進歩を遂げており、言語能力は音声や視覚など他のモダリティにも拡張されている。
我々は,事前学習したLLM LLaMA/OPTと音声合成モデルVALL-Eを組み合わせることで,LLMの強化と音声生成能力の総合的な実証調査を行う。
テキストエンコーダとしてLLMとVALL-Eを組み合わせることで,LLMとVALL-Eの3つの統合手法を比較した。
論文 参考訳(メタデータ) (2023-12-30T14:20:04Z) - Improving Factual Consistency of News Summarization by Contrastive Preference Optimization [65.11227166319546]
大規模言語モデル(LLM)は、本来の記事と現実的に矛盾する要約を生成する。
これらの幻覚は、従来の方法による検出が困難である。
本稿では,LLMの適合性を解消し,忠実で偽のコンテンツを生成するコントラスト優先最適化(CPO)を提案する。
論文 参考訳(メタデータ) (2023-10-30T08:40:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。