論文の概要: How Humans and LLMs Organize Conceptual Knowledge: Exploring Subordinate Categories in Italian
- arxiv url: http://arxiv.org/abs/2505.21301v1
- Date: Tue, 27 May 2025 15:04:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.73806
- Title: How Humans and LLMs Organize Conceptual Knowledge: Exploring Subordinate Categories in Italian
- Title(参考訳): 人間とLLMが概念的知識をどう組織化するか - イタリア語の下位カテゴリを探る
- Authors: Andrea Pedrotti, Giulia Rambelli, Caterina Villani, Marianna Bolognesi,
- Abstract要約: 本研究は,下層部で生産される模範を解析し,分類の組織化を図った最初の試みである。
我々は,187語の具体的単語に対して,人間生成例のイタリア語心理言語学的データセットを提示する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: People can categorize the same entity at multiple taxonomic levels, such as basic (bear), superordinate (animal), and subordinate (grizzly bear). While prior research has focused on basic-level categories, this study is the first attempt to examine the organization of categories by analyzing exemplars produced at the subordinate level. We present a new Italian psycholinguistic dataset of human-generated exemplars for 187 concrete words. We then use these data to evaluate whether textual and vision LLMs produce meaningful exemplars that align with human category organization across three key tasks: exemplar generation, category induction, and typicality judgment. Our findings show a low alignment between humans and LLMs, consistent with previous studies. However, their performance varies notably across different semantic domains. Ultimately, this study highlights both the promises and the constraints of using AI-generated exemplars to support psychological and linguistic research.
- Abstract(参考訳): 同じ実体を、ベーシック(ベア)、スーパーオーディネート(アニマル)、従属(グリズリーベア)など、複数の分類レベルで分類することができる。
先行研究は基本レベルのカテゴリーに焦点をあててきたが,本研究は,下層部で生産される模範を解析することによって,分類の組織化を調査する最初の試みである。
我々は,187語の具体的単語に対して,人間生成例のイタリア語心理言語学的データセットを提示する。
次に、これらのデータを用いて、テキストと視覚のLLMが、模範生成、カテゴリー誘導、典型判定の3つの主要なタスクにまたがる、有意義な模範を創出するかどうかを評価する。
以上の結果から,従来の研究と一致して,人間とLDMの相関が低かったことが示唆された。
しかし、それらのパフォーマンスは、異なるセマンティックドメインで顕著に異なる。
最終的に、この研究は、心理学と言語研究を支援するためにAI生成の例題を用いるという約束と制約の両方を強調した。
関連論文リスト
- Basic Category Usage in Vision Language Models [0.0]
心理学の分野は、1976年にロッシュによって造語された視覚刺激のラベル付けに人間が使用する基本的な分類のレベルを長年認識してきた。
本稿では、最近リリースされた2つのオープンソースのビジョン言語モデル(VLM)の基本レベル分類について検討する。
本稿では,Llama 3.2 Vision Instruct (11B) と Molmo 7B-D が共に,人間の行動に整合した基本的なレベル分類を好むことを示す。
論文 参考訳(メタデータ) (2025-03-16T14:50:54Z) - Large Language Models as Neurolinguistic Subjects: Discrepancy in Performance and Competence for Form and Meaning [49.60849499134362]
本研究では,大言語モデル(LLM)の記号化(形式)および記号化(意味)に関する言語的理解について検討する。
ミニマルペアと診断プローブを組み合わせてモデル層間のアクティベーションパターンを解析する新しい手法を用いて,ニューロ言語学的アプローチを提案する。
その結果,(1)心理言語学的・神経言語学的手法では,言語能力と能力が異なっていること,(2)直接確率測定では言語能力が正確に評価されないこと,(3)指導のチューニングでは能力が大きく変化しないが,性能は向上しないことがわかった。
論文 参考訳(メタデータ) (2024-11-12T04:16:44Z) - Categorical Syllogisms Revisited: A Review of the Logical Reasoning Abilities of LLMs for Analyzing Categorical Syllogism [62.571419297164645]
本稿では,分類的シロジズムを解析するための大規模言語モデルの論理的推論能力に関する先行研究を体系的に概説する。
まず、純粋に論理的な観点から分類的シロジズムの可能なバリエーションについて検討する。
次に、既存のデータセットでテストされた基本的な設定(ムードとフィギュア)を調べます。
論文 参考訳(メタデータ) (2024-06-26T21:17:20Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Exploring Qualitative Research Using LLMs [8.545798128849091]
この研究は、人間とAIが駆動する大規模言語モデルの理解能力を比較し、比較することを目的としている。
私たちはAlexaアプリのレビューの小さなサンプルを使って実験を行い、最初は人間のアナリストによって分類された。
LLMはこれらのレビューを分類し、それぞれの分類の背後にある理由を提供するよう求められた。
論文 参考訳(メタデータ) (2023-06-23T05:21:36Z) - Cognitive and Cultural Topology of Linguistic Categories:A Semantic-Pragmatic Metric Approach [0.0]
本研究では,単語共起パターンを利用した新しい幾何学的計量法を提案する。
この計量は、意味的典型性(認知)とプラグマティック・サリエンス(社会文化的)の2つの基本的な性質をマッピングする。
本評価は,従来の認知意味学ベンチマークを超越した基本レベルカテゴリのマッピングを,この意味論的指標が生成していることを明らかにする。
論文 参考訳(メタデータ) (2021-12-13T18:33:45Z) - Computer-assisted construct classification of organizational performance
concerning different stakeholder groups [3.4587725785208785]
我々は,研究論文の構成要素(概念と用語)を3段階の分類に分類する。
周辺文や外部参照から抽出した特徴による文脈情報の増加は、非凝集性ラベルの分類を改善することが観察された。
論文 参考訳(メタデータ) (2021-07-11T21:39:37Z) - Category Contrast for Unsupervised Domain Adaptation in Visual Tasks [92.9990560760593]
本稿では,視覚的 UDA タスクのインスタンス識別に先立って,セマンティックな事前情報を導入した新しいカテゴリコントラスト手法(CaCo)を提案する。
CaCoは既存のUDAメソッドを補完し、半教師付き学習や教師なしモデル適応などの他の学習設定に一般化可能である。
論文 参考訳(メタデータ) (2021-06-05T12:51:35Z) - Multi-Instance Multi-Label Learning Networks for Aspect-Category
Sentiment Analysis [8.378067521821045]
Aspect-Category sentiment analysis (AC-MIMLLN) のためのマルチインスタンスマルチラベル学習ネットワークを提案する。
AC-MIMLLNは、文章をバッグ、単語をインスタンスとして扱い、アスペクトカテゴリのキーインスタンスとしてアスペクトカテゴリを示す単語を扱います。
3つの公開データセットの実験結果から,AC-MIMLLNの有効性が示された。
論文 参考訳(メタデータ) (2020-10-06T12:07:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。