論文の概要: Linguists should learn to love speech-based deep learning models
- arxiv url: http://arxiv.org/abs/2512.14506v1
- Date: Tue, 16 Dec 2025 15:42:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.769842
- Title: Linguists should learn to love speech-based deep learning models
- Title(参考訳): 言語学者は、音声に基づくディープラーニングモデルを愛好すべきである
- Authors: Marianne de Heer Kloots, Paul Boersma, Willem Zuidema,
- Abstract要約: FutrellとMahowaldは、技術指向のディープラーニングシステムと説明指向の言語理論をブリッジするフレームワークを提示する。
オーディオベースのディープラーニングモデルは、重要な役割を果たすべきだ、と私たちは主張する。
- 参考スコア(独自算出の注目度): 2.4487691107306655
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Futrell and Mahowald present a useful framework bridging technology-oriented deep learning systems and explanation-oriented linguistic theories. Unfortunately, the target article's focus on generative text-based LLMs fundamentally limits fruitful interactions with linguistics, as many interesting questions on human language fall outside what is captured by written text. We argue that audio-based deep learning models can and should play a crucial role.
- Abstract(参考訳): FutrellとMahowaldは、技術指向のディープラーニングシステムと説明指向の言語理論をブリッジする有用なフレームワークを提示する。
残念なことに、生成テキストベースのLLMに焦点をあてた記事は、言語学との実りある相互作用を根本的に制限している。
オーディオベースのディープラーニングモデルは、重要な役割を果たすべきだ、と私たちは主張する。
関連論文リスト
- Language Models Model Language [1.2691047660244335]
我々はWitold Ma'nczakの経験主義的原理に対する視点の急激な変化を論じる。
彼は言語を「記号のシステム」や「脳の計算システム」ではなく、言葉の総体として定義している。
論文 参考訳(メタデータ) (2025-10-14T17:45:31Z) - On the Semantics of Large Language Models [0.0]
大規模言語モデル(LLM)は、技術を通して人間の言語能力を再現する可能性を実証した。
これらのシステムが言語をどの程度理解しているかについては議論の余地がある。
質問を単語と文のレベルで LLM の意味論に絞り込むことで,この問題を考察する。
論文 参考訳(メタデータ) (2025-07-07T20:02:57Z) - Beyond Profile: From Surface-Level Facts to Deep Persona Simulation in LLMs [50.0874045899661]
本稿では,文字のテキストワークに現れる言語パターンと独特の思考パターンの両方を再現するモデルである characterBot を紹介する。
著名な中国の作家ル・ジュンをケーススタディとして、17冊のエッセイ集から派生した4つの訓練課題を提案する。
これには、外部の言語構造と知識を習得することに焦点を当てた事前訓練タスクと、3つの微調整タスクが含まれる。
言語的正確性と意見理解の3つのタスクにおいて、キャラクタボットを評価し、適応されたメトリクスのベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2025-02-18T16:11:54Z) - PhonologyBench: Evaluating Phonological Skills of Large Language Models [57.80997670335227]
音声学は、音声の構造と発音規則の研究であり、Large Language Model (LLM) 研究において批判的であるが、しばしば見落とされがちな要素である。
LLMの音韻的スキルを明示的にテストするための3つの診断タスクからなる新しいベンチマークであるPhonologyBenchを提案する。
我々は,Rhyme Word GenerationとSyllable countingにおいて,人間と比較した場合,それぞれ17%と45%の有意なギャップを観察した。
論文 参考訳(メタデータ) (2024-04-03T04:53:14Z) - Spoken Language Intelligence of Large Language Models for Language Learning [3.1964044595140217]
教育分野における大規模言語モデル(LLM)の有効性を評価することに注力する。
上記のシナリオにおけるLLMの有効性を評価するために,新しい複数選択質問データセットを提案する。
また,ゼロショット法や少数ショット法など,様々なプロンプト技術の影響についても検討する。
異なる大きさのモデルは、音韻学、音韻学、第二言語習得の概念をよく理解しているが、実世界の問題に対する推論には限界がある。
論文 参考訳(メタデータ) (2023-08-28T12:47:41Z) - Towards Language Modelling in the Speech Domain Using Sub-word
Linguistic Units [56.52704348773307]
音節や音素を含む言語単位に基づくLSTMに基づく新しい生成音声LMを提案する。
限られたデータセットでは、現代の生成モデルで要求されるものよりも桁違いに小さいので、我々のモデルはバブリング音声を近似する。
補助的なテキストLM,マルチタスク学習目標,補助的な調音特徴を用いた訓練の効果を示す。
論文 参考訳(メタデータ) (2021-10-31T22:48:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。