論文の概要: The Polish Vocabulary Size Test: A Novel Adaptive Test for Receptive Vocabulary Assessment
- arxiv url: http://arxiv.org/abs/2507.19869v1
- Date: Sat, 26 Jul 2025 08:56:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:56.356052
- Title: The Polish Vocabulary Size Test: A Novel Adaptive Test for Receptive Vocabulary Assessment
- Title(参考訳): ポーランド語語彙サイズテスト:受容語彙評価のための新しい適応テスト
- Authors: Danil Fokin, Monika Płużyczka, Grigory Golovin,
- Abstract要約: ポーランド語語彙サイズテスト(英語: Polish Vocabulary Size Test, PVST)は、母国語話者と母国語話者の両方の語彙サイズを評価するための新しいツールである。
ポーランド語話者は、非ネイティブ話者に比べてはるかに大きな語彙を示した。
母語話者の場合,語彙サイズは年齢と強い正の相関を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present the Polish Vocabulary Size Test (PVST), a novel tool for assessing the receptive vocabulary size of both native and non-native Polish speakers. Based on Item Response Theory and Computerized Adaptive Testing, PVST dynamically adjusts to each test-taker's proficiency level, ensuring high accuracy while keeping the test duration short. To validate the test, a pilot study was conducted with 1.475 participants. Native Polish speakers demonstrated significantly larger vocabularies compared to non-native speakers. For native speakers, vocabulary size showed a strong positive correlation with age. The PVST is available online at myvocab.info/pl.
- Abstract(参考訳): ポーランド語母語話者と非母語話者の受容語彙サイズを評価するための新しいツールであるポーランド語語彙サイズテスト(PVST)を提案する。
PVSTは、項目応答理論とコンピュータ適応テストに基づいて、各テストテッカーの習熟度を動的に調整し、テスト期間を短くしながら高い精度を確保する。
テストを検証するため、1.475人の被験者でパイロット実験が行われた。
ポーランド語話者は、非ネイティブ話者に比べてはるかに大きな語彙を示した。
母語話者の場合,語彙サイズは年齢と強い正の相関を示した。
PVSTはmyvocab.info/pl.comで公開されている。
関連論文リスト
- ISSR: Iterative Selection with Self-Review for Vocabulary Test Distractor Generation [4.894055891694307]
本研究は,台湾の大学入学試験における英語語彙の問題に焦点を当てた。
本稿では,自己レビュー(ISSR)フレームワークによる反復的選択を提案する。
実験結果から,ISSRは可塑性分散器の生成において有望な性能を達成し,自己レビュー機構により,問題を無効化可能な分散器を効果的にフィルタすることがわかった。
論文 参考訳(メタデータ) (2025-01-07T01:45:02Z) - Speechworthy Instruction-tuned Language Models [71.8586707840169]
提案手法は,学習の促進と嗜好の両面において,一般的な命令調整型LLMの音声適合性の向上を図っている。
我々は,各手法が生成した応答の音声適合性向上にどのように貢献するかを示すために,語彙的,構文的,定性的な分析を共有する。
論文 参考訳(メタデータ) (2024-09-23T02:34:42Z) - An Initial Investigation of Language Adaptation for TTS Systems under Low-resource Scenarios [76.11409260727459]
本稿では,最近のSSLベースの多言語TSシステムであるZMM-TTSの言語適応性について検討する。
本研究では,事前学習言語と対象言語との音声学的な類似性が,対象言語の適応性能に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2024-06-13T08:16:52Z) - Automated Generation of Multiple-Choice Cloze Questions for Assessing
English Vocabulary Using GPT-turbo 3.5 [5.525336037820985]
大規模言語モデル(LLM)を用いた複数質問の自動生成手法の評価を行った。
VocaTTエンジンはPythonで記述されており、ターゲット単語リストの事前処理、文と候補単語オプションの生成、最後に適切な単語オプションの選択という3つの基本的なステップで構成されている。
その結果、文が75%、単語が66.85%であることがわかった。
論文 参考訳(メタデータ) (2024-03-04T14:24:47Z) - Detecting Syllable-Level Pronunciation Stress with A Self-Attention
Model [0.0]
話し言葉の音節ごとのストレスレベルを知ることは、英語話者や学習者にとって重要である。
本稿では,話し言葉の各音節のストレスレベルを同定する自己注意モデルを提案する。
論文 参考訳(メタデータ) (2023-11-01T05:05:49Z) - Establishing Vocabulary Tests as a Benchmark for Evaluating Large
Language Models [2.7013338932521416]
我々は,大言語モデル(LLM)の性能を評価する貴重なツールとして,語彙テストの復活を提唱する。
2つの言語にまたがる2つの語彙テスト形式を用いて7つのLSMを評価し,その語彙的知識の驚くべきギャップを明らかにする。
論文 参考訳(メタデータ) (2023-10-23T08:45:12Z) - Position: AI Evaluation Should Learn from How We Test Humans [65.36614996495983]
人間の評価のための20世紀起源の理論である心理測定は、今日のAI評価における課題に対する強力な解決策になり得る、と我々は主張する。
論文 参考訳(メタデータ) (2023-06-18T09:54:33Z) - BabySLM: language-acquisition-friendly benchmark of self-supervised
spoken language models [56.93604813379634]
音声表現を学習するための自己指導技術は、人間のラベルを必要とせずに、音声への露出から言語能力を高めることが示されている。
語彙および構文レベルで音声言語モデルを探索するために,言語習得に親しみやすいベンチマークを提案する。
テキストと音声のギャップを埋めることと、クリーンな音声とその内話のギャップを埋めることである。
論文 参考訳(メタデータ) (2023-06-02T12:54:38Z) - Translate to Disambiguate: Zero-shot Multilingual Word Sense
Disambiguation with Pretrained Language Models [67.19567060894563]
事前訓練された言語モデル(PLM)は、豊富な言語間知識を学習し、多様なタスクでうまく機能するように微調整することができる。
C-WLT(Contextual Word-Level Translation)を用いた言語間単語感覚の捉え方の検討を行った。
モデルのサイズが大きくなるにつれて、PLMはより言語間単語認識の知識をエンコードし、WLT性能を改善するためのコンテキストを良くする。
論文 参考訳(メタデータ) (2023-04-26T19:55:52Z) - Around the world in 60 words: A generative vocabulary test for online
research [12.91296932597502]
ウィキペディアのテキストを用いて語彙テストを生成する自動パイプラインを提案する。
我々のパイプラインは希少な名詞をサンプリングし、同じ低レベル統計を持つ擬似単語を生成する。
私たちのテストは8つの言語で利用可能で、簡単に他の言語に拡張できます。
論文 参考訳(メタデータ) (2023-02-03T09:27:12Z) - MuLVE, A Multi-Language Vocabulary Evaluation Data Set [2.9005223064604078]
本研究は,語彙カードと実生活ユーザ回答からなるデータセットであるMuLVE(Multi-Language Vocabulary Evaluation Data Set)を導入する。
データセットにはドイツ語、英語、スペイン語、フランス語の語彙に関する質問がターゲット言語として含まれている。
提案したMulVEデータセットを用いて語彙評価の下流タスクにおいて,事前学習したBERT言語モデルを微調整する実験を行った。
論文 参考訳(メタデータ) (2022-01-17T09:02:59Z) - Allocating Large Vocabulary Capacity for Cross-lingual Language Model
Pre-training [59.571632468137075]
最近の言語間言語モデルでは,語彙の容量が限られているため,多くの言語が不足していることがわかった。
本稿では,各言語の語彙能力を決定するアルゴリズムであるVoCapを提案する。
この問題に対処するために,k-NNに基づくターゲットサンプリングを提案し,コストの高いソフトマックスを高速化する。
論文 参考訳(メタデータ) (2021-09-15T14:04:16Z) - Structural Pre-training for Dialogue Comprehension [51.215629336320305]
本稿では,SPIDER, Structure Pre-trained DialoguE Readerについて述べる。
対話のような特徴をシミュレートするために,元のLM目的に加えて,2つの訓練目標を提案する。
広く使われている対話ベンチマークの実験結果から,新たに導入した自己教師型タスクの有効性が検証された。
論文 参考訳(メタデータ) (2021-05-23T15:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。