論文の概要: PhoniTale: Phonologically Grounded Mnemonic Generation for Typologically Distant Language Pairs
- arxiv url: http://arxiv.org/abs/2507.05444v1
- Date: Mon, 07 Jul 2025 19:50:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.325886
- Title: PhoniTale: Phonologically Grounded Mnemonic Generation for Typologically Distant Language Pairs
- Title(参考訳): PhoniTale: 音韻的に接地したMnmonic Generation for Typologically Distant Language Pairs
- Authors: Sana Kang, Myeongseok Gwon, Su Young Kwon, Jaewook Lee, Andrew Lan, Bhiksha Raj, Rita Singh,
- Abstract要約: 大規模言語モデル (LLM) は、学習者の第一言語から類似したキーワードを活用することで、キーワード・モニーモニックを生成するために使われている。
音韻的類似性に基づいてL1キーワード列を検索する新しい言語間メタモニック生成システムであるPhoniTaleを提案する。
以上の結果から, PhoniTale はヒトのmnemonics と同等に機能することが明らかとなった。
- 参考スコア(独自算出の注目度): 27.660748686041963
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Vocabulary acquisition poses a significant challenge for second-language (L2) learners, especially when learning typologically distant languages such as English and Korean, where phonological and structural mismatches complicate vocabulary learning. Recently, large language models (LLMs) have been used to generate keyword mnemonics by leveraging similar keywords from a learner's first language (L1) to aid in acquiring L2 vocabulary. However, most of this research has focused on native English speakers learning other languages, rather than the reverse. In this paper, we present PhoniTale, a novel cross-lingual mnemonic generation system that retrieves L1 keyword sequence based on phonological similarity and uses LLMs to generate mnemonics. We evaluate PhoniTale using both automated metrics and human evaluations, comparing its output to mnemonics created by humans and by previous automated approaches. To assess practical effectiveness, we also conduct a short-term recall test measuring mnemonic helpfulness. Our findings show that PhoniTale performs comparably to human-authored mnemonics. We also highlight key areas for future improvement in mnemonic quality and methodology.
- Abstract(参考訳): 語彙習得は第二言語(L2)学習者にとって重要な課題であり、特に音韻学や構造的ミスマッチが語彙学習を複雑にしている英語や韓国語などの類型的に遠い言語を学ぶ場合である。
近年,L2語彙の獲得を支援するために,学習者の第1言語(L1)から類似したキーワードを活用することで,キーワード音韻を生成するために大規模言語モデル (LLM) が用いられている。
しかしながら、この研究の大部分は、逆ではなく、他の言語を学ぶネイティブ英語話者に焦点を当てている。
本稿では,音韻的類似性に基づいてL1キーワード列を検索し,LLMを用いて音韻を生成する新しい言語間メタモニック生成システムであるPhoniTaleを提案する。
自動計測と人的評価の両方を用いてPhooniTaleの評価を行い、その出力を人によるメネモニックと過去の自動手法で比較した。
また, 実効性を評価するため, 短時間のリコール試験を行い, 便益を計測した。
以上の結果から, PhoniTale はヒトのmnemonics と同等に機能することが明らかとなった。
ムネモニック品質と方法論の今後の改善の鍵となる部分についても強調する。
関連論文リスト
- Exploring Automated Keyword Mnemonics Generation with Large Language Models via Overgenerate-and-Rank [4.383205675898942]
キーワード・ムネモニクス(英: Keywords mnemonics)は、単語を単語のキューを通じて記憶可能な関連性を通じて記憶する技法である。
そこで本稿では,大規模言語モデルに言語的手がかりを生成させる手法として,新しいオーバージェネレーション・アンド・ランク法を提案する。
以上の結果から, LLM生成のメネモニクスは, 画像性, コヒーレンス, 知覚的有用性の観点から, 人間生成のミネモニクスに匹敵するものであることが示唆された。
論文 参考訳(メタデータ) (2024-09-21T00:00:18Z) - PhonologyBench: Evaluating Phonological Skills of Large Language Models [57.80997670335227]
音声学は、音声の構造と発音規則の研究であり、Large Language Model (LLM) 研究において批判的であるが、しばしば見落とされがちな要素である。
LLMの音韻的スキルを明示的にテストするための3つの診断タスクからなる新しいベンチマークであるPhonologyBenchを提案する。
我々は,Rhyme Word GenerationとSyllable countingにおいて,人間と比較した場合,それぞれ17%と45%の有意なギャップを観察した。
論文 参考訳(メタデータ) (2024-04-03T04:53:14Z) - Introducing Syllable Tokenization for Low-resource Languages: A Case Study with Swahili [29.252250069388687]
トークン化は、文字やサブワードに基づいて単語を分割することができ、言語の構造を最もよく表す単語埋め込みを生成する。
そこで我々は,スワヒリ語に基づく音節トークン化手法を提案し,実験中心の手法を適用した。
論文 参考訳(メタデータ) (2024-03-26T17:26:50Z) - Information-Theoretic Characterization of Vowel Harmony: A
Cross-Linguistic Study on Word Lists [18.138642719651994]
自然言語辞書における母音の予測可能性に基づく調和性の情報理論的尺度を定義する。
音素レベル言語モデル(PLM)を用いてこの調和性を推定する。
我々の研究は、単語リストが類型研究にとって貴重な資源であることを実証している。
論文 参考訳(メタデータ) (2023-08-09T11:32:16Z) - SmartPhone: Exploring Keyword Mnemonic with Auto-generated Verbal and
Visual Cues [2.8047215329139976]
本稿では,キーワード・メニーモニックのための言語・視覚的手がかりの自動生成のためのエンドツーエンドパイプラインを提案する。
言語と視覚を自動生成するエンド・ツー・エンドのパイプラインである我々のアプローチは、覚えやすいキューを自動的に生成することができる。
論文 参考訳(メタデータ) (2023-05-11T20:58:10Z) - Retrieval-Augmented Multilingual Keyphrase Generation with
Retriever-Generator Iterative Training [66.64843711515341]
キーフレーズ生成は、長いテキストが与えられたキーフレーズを自動的に予測するタスクである。
我々は多言語キーフレーズ生成という新しい設定に注意を払っている。
非英語言語におけるデータ不足問題を軽減するために,多言語キーフレーズ生成のための検索拡張手法を提案する。
論文 参考訳(メタデータ) (2022-05-21T00:45:21Z) - Towards Language Modelling in the Speech Domain Using Sub-word
Linguistic Units [56.52704348773307]
音節や音素を含む言語単位に基づくLSTMに基づく新しい生成音声LMを提案する。
限られたデータセットでは、現代の生成モデルで要求されるものよりも桁違いに小さいので、我々のモデルはバブリング音声を近似する。
補助的なテキストLM,マルチタスク学習目標,補助的な調音特徴を用いた訓練の効果を示す。
論文 参考訳(メタデータ) (2021-10-31T22:48:30Z) - Perception Point: Identifying Critical Learning Periods in Speech for
Bilingual Networks [58.24134321728942]
ディープニューラルベース視覚唇読解モデルにおける認知的側面を比較し,識別する。
我々は、認知心理学におけるこれらの理論と独自のモデリングの間に強い相関関係を観察する。
論文 参考訳(メタデータ) (2021-10-13T05:30:50Z) - Applying Phonological Features in Multilingual Text-To-Speech [2.567123525861164]
ARPABET/pinyinをSAMPA/SAMPA-SCにマッピングし,音声学的特徴について検討した。
このマッピングが、2つの言語でネイティブ、非ネイティブ、コードスイッチトされた音声の生成を成功させるかどうかを検証した。
論文 参考訳(メタデータ) (2021-10-07T16:37:01Z) - Automatically Identifying Language Family from Acoustic Examples in Low
Resource Scenarios [48.57072884674938]
ディープラーニングを用いて言語類似性を解析する手法を提案する。
すなわち、Willernessデータセットのモデルをトレーニングし、その潜在空間が古典的な言語家族の発見とどのように比較されるかを調べる。
論文 参考訳(メタデータ) (2020-12-01T22:44:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。