論文の概要: Controlling Language Difficulty in Dialogues with Linguistic Features
- arxiv url: http://arxiv.org/abs/2509.14545v1
- Date: Thu, 18 Sep 2025 02:22:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.027006
- Title: Controlling Language Difficulty in Dialogues with Linguistic Features
- Title(参考訳): 言語的特徴を持つ対話における言語難易度制御
- Authors: Shuyao Xu, Wenguang Wang, Handong Gao, Wei Kang, Long Qin, Weizhi Wang,
- Abstract要約: 言語アノテートされた対話データに基づく大規模言語モデル(LLM)の訓練は、言語習熟度を正確に調節することができる。
提案手法は,高い対話品質を維持しつつ,言語能力の優れた制御性を実現する。
- 参考スコア(独自算出の注目度): 9.426180715334667
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have emerged as powerful tools for supporting second language acquisition, particularly in simulating interactive dialogues for speaking practice. However, adapting the language difficulty of LLM-generated responses to match learners' proficiency levels remains a challenge. This work addresses this issue by proposing a framework for controlling language proficiency in educational dialogue systems. Our approach leverages three categories of linguistic features, readability features (e.g., Flesch-Kincaid Grade Level), syntactic features (e.g., syntactic tree depth), and lexical features (e.g., simple word ratio), to quantify and regulate text complexity. We demonstrate that training LLMs on linguistically annotated dialogue data enables precise modulation of language proficiency, outperforming prompt-based methods in both flexibility and stability. To evaluate this, we introduce Dilaprix, a novel metric integrating the aforementioned features, which shows strong correlation with expert judgments of language difficulty. Empirical results reveal that our approach achieves superior controllability of language proficiency while maintaining high dialogue quality.
- Abstract(参考訳): 大規模言語モデル (LLMs) は第二言語習得を支援する強力なツールとして登場し、特に対話型対話による発話の実践をシミュレーションしている。
しかし, 学習者の習熟度に適合するLLM生成応答の言語難易度を適応させることは, 依然として課題である。
本研究は,教育対話システムにおける言語習熟度制御の枠組みを提案することで,この問題に対処する。
本手法では,3つの言語的特徴,可読性特徴(Flesch-Kincaid Grade Level),構文的特徴(syntactic features,syntactic tree depth),語彙的特徴(syntactic features,s simple word ratio)を活用し,テキストの複雑さの定量化と制御を行う。
言語的に注釈付けされた対話データに基づくLLMの訓練は、言語習熟度を正確に調整し、柔軟性と安定性の両方においてプロンプトベースの手法より優れていることを示す。
これを評価するために,上述した特徴を統合した新しい計量であるDilaprixを導入し,言語難易度に関する専門家の判断と強い相関関係を示す。
実験結果から,高い対話品質を維持しつつ,言語能力の優れた制御性を実現することができることがわかった。
関連論文リスト
- SSL-SSAW: Self-Supervised Learning with Sigmoid Self-Attention Weighting for Question-Based Sign Language Translation [24.796833811673945]
本稿では,対話の効率的な統合を探求する新しい課題である質問ベース手話翻訳(QB-SLT)を提案する。
本稿では,手話翻訳のためのSigmoid Self-attention Weighting (SSL-SSAW) 融合法を提案する。
SSL-SSAWがSOTA性能を達成したCSL-Daily-QAとPHOENIX-2014T-QAデータセットについて検討を行った。
論文 参考訳(メタデータ) (2025-09-17T14:37:59Z) - C3: A Bilingual Benchmark for Spoken Dialogue Models Exploring Challenges in Complex Conversations [23.11314388159895]
音声対話モデル(SDM)は近年,ユーザの音声クエリに直接音声応答を生成する能力に注目が集まっている。
人間の音声相互作用は、音声対話特有の特徴のため、本質的にテキストよりも複雑である。
論文 参考訳(メタデータ) (2025-07-30T17:56:23Z) - Linguistic Blind Spots of Large Language Models [14.755831733659699]
言語アノテーションタスクにおける最近の大規模言語モデル(LLM)の性能について検討する。
近年の LLM は言語クエリに対処する上で有効性が限られており,言語学的に複雑な入力に苦しむことが多い。
この結果から,LLMの設計・開発における今後の進歩を示唆する知見が得られた。
論文 参考訳(メタデータ) (2025-03-25T01:47:13Z) - Linguistic Knowledge Transfer Learning for Speech Enhancement [29.191204225828354]
言語知識は、言語理解において重要な役割を果たす。
ほとんどの音声強調法は、雑音とクリーンな音声のマッピング関係を学習するために音響的特徴に依存している。
本稿では,言語知識をSEモデルに統合するクロスモーダル・ナレッジ・トランスファー(CMKT)学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-10T09:00:18Z) - Can LLMs Understand the Implication of Emphasized Sentences in Dialogue? [64.72966061510375]
強調は人間のコミュニケーションにおいて重要な要素であり、対話における純粋テキストを超えて話者の意図と含意を示す。
本稿では,強調の意味を抽出した強調注釈付き対話サンプルを用いたベンチマークであるEmphasized-Talkを紹介する。
オープンソースと商用の両方で様々な大規模言語モデル(LLM)を評価し,その性能を重要視して評価する。
論文 参考訳(メタデータ) (2024-06-16T20:41:44Z) - BabySLM: language-acquisition-friendly benchmark of self-supervised
spoken language models [56.93604813379634]
音声表現を学習するための自己指導技術は、人間のラベルを必要とせずに、音声への露出から言語能力を高めることが示されている。
語彙および構文レベルで音声言語モデルを探索するために,言語習得に親しみやすいベンチマークを提案する。
テキストと音声のギャップを埋めることと、クリーンな音声とその内話のギャップを埋めることである。
論文 参考訳(メタデータ) (2023-06-02T12:54:38Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - Structural Pre-training for Dialogue Comprehension [51.215629336320305]
本稿では,SPIDER, Structure Pre-trained DialoguE Readerについて述べる。
対話のような特徴をシミュレートするために,元のLM目的に加えて,2つの訓練目標を提案する。
広く使われている対話ベンチマークの実験結果から,新たに導入した自己教師型タスクの有効性が検証された。
論文 参考訳(メタデータ) (2021-05-23T15:16:54Z) - Robustness Testing of Language Understanding in Dialog Systems [33.30143655553583]
自然言語理解モデルの頑健性に関して総合的な評価と分析を行う。
本稿では,実世界の対話システムにおける言語理解に関連する3つの重要な側面,すなわち言語多様性,音声特性,雑音摂動について紹介する。
対話システムにおける堅牢性問題をテストするための自然摂動を近似するモデル非依存型ツールキットLAUGを提案する。
論文 参考訳(メタデータ) (2020-12-30T18:18:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。