論文の概要: Can Large Language Models (LLMs) Describe Pictures Like Children? A Comparative Corpus Study
- arxiv url: http://arxiv.org/abs/2508.13769v1
- Date: Tue, 19 Aug 2025 12:13:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.912192
- Title: Can Large Language Models (LLMs) Describe Pictures Like Children? A Comparative Corpus Study
- Title(参考訳): 大型言語モデル(LLM)は子どものような絵を記述できるか? 比較コーパススタディ
- Authors: Hanna Woloszyn, Benjamin Gagl,
- Abstract要約: 本研究では,大言語モデル (LLM) が, LLM 生成したテキストとドイツの児童による絵物語の記述を比較検討することにより, 子どものような言語を再現する方法について検討した。
単語の頻度,語彙の豊かさ,文章と単語の長さ,パート・オブ・音声タグ,単語の埋め込みによる意味的類似性など,心理言語学的テキスト特性の比較分析を行った。
その結果,LLM生成したテキストは長大だが語彙的にも豊かではないこと,高周波の単語に頼っていること,表現不足の名詞に頼っていることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The role of large language models (LLMs) in education is increasing, yet little attention has been paid to whether LLM-generated text resembles child language. This study evaluates how LLMs replicate child-like language by comparing LLM-generated texts to a collection of German children's descriptions of picture stories. We generated two LLM-based corpora using the same picture stories and two prompt types: zero-shot and few-shot prompts specifying a general age from the children corpus. We conducted a comparative analysis across psycholinguistic text properties, including word frequency, lexical richness, sentence and word length, part-of-speech tags, and semantic similarity with word embeddings. The results show that LLM-generated texts are longer but less lexically rich, rely more on high-frequency words, and under-represent nouns. Semantic vector space analysis revealed low similarity, highlighting differences between the two corpora on the level of corpus semantics. Few-shot prompt increased similarities between children and LLM text to a minor extent, but still failed to replicate lexical and semantic patterns. The findings contribute to our understanding of how LLMs approximate child language through multimodal prompting (text + image) and give insights into their use in psycholinguistic research and education while raising important questions about the appropriateness of LLM-generated language in child-directed educational tools.
- Abstract(参考訳): 教育における大型言語モデル(LLM)の役割は増加しているが、LLM生成テキストが子語に類似しているかどうかについては注目されていない。
本研究は, LLM が生成した文章を, ドイツの児童による絵物語の記述集と比較することにより, 子どものような言語を再現する方法について検討した。
2つのLLMコーパスを同じ画像ストーリーと2つのプロンプトタイプ(ゼロショットプロンプトと小ショットプロンプト)を用いて作成した。
単語の頻度,語彙の豊かさ,文章と単語の長さ,パート・オブ・音声タグ,単語の埋め込みによる意味的類似性など,心理言語学的テキスト特性の比較分析を行った。
その結果,LLM生成したテキストは長大だが語彙的にも豊かで,高周波の単語に頼り,表現不足の名詞に頼っていることがわかった。
セマンティックベクトル空間解析では,2つのコーパス間のセマンティックスレベルでの差異が強調され,類似性が低かった。
子供とLLMテキストの類似性がわずかに増加したが、語彙や意味のパターンの再現には至らなかった。
本研究は,マルチモーダル・プロンプト(テキスト+イメージ)を通じて,LLMが子どもの言語にどのように近似するかを理解することに貢献し,子ども向け教育ツールにおけるLLM生成言語の有効性に関する重要な疑問を提起すると共に,精神言語学研究および教育におけるその利用に関する洞察を与える。
関連論文リスト
- QUDsim: Quantifying Discourse Similarities in LLM-Generated Text [70.22275200293964]
本稿では,会話の進行過程の違いの定量化を支援するために,言語理論に基づくQUDと質問意味論を紹介する。
このフレームワークを使って$textbfQUDsim$を作ります。
QUDsimを用いて、コンテンツが異なる場合であっても、LLMはサンプル間で(人間よりも)談話構造を再利用することが多い。
論文 参考訳(メタデータ) (2025-04-12T23:46:09Z) - Disparities in LLM Reasoning Accuracy and Explanations: A Case Study on African American English [66.97110551643722]
本研究では,Large Language Models (LLMs) 推論タスクにおける方言の相違について検討する。
LLMは、AAE入力に対するより正確な応答とより単純な推論チェーンと説明を生成する。
これらの知見は、LLMの処理方法と異なる言語品種の理由の体系的差異を浮き彫りにした。
論文 参考訳(メタデータ) (2025-03-06T05:15:34Z) - PhonologyBench: Evaluating Phonological Skills of Large Language Models [57.80997670335227]
音声学は、音声の構造と発音規則の研究であり、Large Language Model (LLM) 研究において批判的であるが、しばしば見落とされがちな要素である。
LLMの音韻的スキルを明示的にテストするための3つの診断タスクからなる新しいベンチマークであるPhonologyBenchを提案する。
我々は,Rhyme Word GenerationとSyllable countingにおいて,人間と比較した場合,それぞれ17%と45%の有意なギャップを観察した。
論文 参考訳(メタデータ) (2024-04-03T04:53:14Z) - Beware of Words: Evaluating the Lexical Diversity of Conversational LLMs using ChatGPT as Case Study [3.0059120458540383]
対話型大言語モデル(LLM)が生成するテキストの語彙的リッチ性の評価と,それがモデルパラメータにどのように依存するかを検討する。
その結果、語彙豊かさがChatGPTのバージョンと、そのパラメータのいくつか、例えば存在ペナルティやモデルに割り当てられた役割にどのように依存しているかが示される。
論文 参考訳(メタデータ) (2024-02-11T13:41:17Z) - Contrasting Linguistic Patterns in Human and LLM-Generated News Text [20.127243508644984]
人書き英語のニューステキストに比較して,LLM(Large Language Model)の出力を定量的に分析する。
結果は、人間とAIが生成したテキストの様々な測定可能な相違を明らかにした。
人間の文章は、より散在した文の長さの分布、より多様な語彙、依存と構成型の明確な利用を示す。
LLM出力は人文よりも数字、記号、補助語が多用され、代名詞も多用される。
論文 参考訳(メタデータ) (2023-08-17T15:54:38Z) - DPIC: Decoupling Prompt and Intrinsic Characteristics for LLM Generated Text Detection [56.513637720967566]
大規模言語モデル(LLM)は、盗作、eコマースプラットフォームへの偽レビューの設置、炎症性偽ツイートなどの誤用のリスクを引き起こすテキストを生成することができる。
既存の高品質な検出手法では、本質的な特徴を抽出するために、モデルの内部にアクセスする必要がある。
ブラックボックスモデル生成テキストの深い内在特性を抽出する。
論文 参考訳(メタデータ) (2023-05-21T17:26:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。