論文の概要: Concept Generalization in Humans and Large Language Models: Insights from the Number Game
- arxiv url: http://arxiv.org/abs/2512.20162v1
- Date: Tue, 23 Dec 2025 08:41:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.803726
- Title: Concept Generalization in Humans and Large Language Models: Insights from the Number Game
- Title(参考訳): 人間と大言語モデルにおける概念一般化:ナンバーゲームからの考察
- Authors: Arghavan Bazigaran, Hansem Sohn,
- Abstract要約: 数値ゲームにおける人間と大規模言語モデル(LLM)の一般化を比較した。
ヒトとLDMの誘導バイアスと推論戦略について検討した。
- 参考スコア(独自算出の注目度): 0.09549044630322329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We compare human and large language model (LLM) generalization in the number game, a concept inference task. Using a Bayesian model as an analytical framework, we examined the inductive biases and inference strategies of humans and LLMs. The Bayesian model captured human behavior better than LLMs in that humans flexibly infer rule-based and similarity-based concepts, whereas LLMs rely more on mathematical rules. Humans also demonstrated a few-shot generalization, even from a single example, while LLMs required more samples to generalize. These contrasts highlight the fundamental differences in how humans and LLMs infer and generalize mathematical concepts.
- Abstract(参考訳): 数値ゲームにおける人間と大規模言語モデル(LLM)の一般化を概念推論タスクとして比較する。
ベイズモデルを用いて,人間とLLMの帰納的バイアスと推論戦略を検討した。
ベイズモデルでは、人間は規則に基づく概念や類似性に基づく概念を柔軟に推測するのに対し、LLMは数学的規則に依存している。
人間はまた、単一の例からでも数発の一般化を示し、LSMは一般化するためにより多くのサンプルを必要とした。
これらの対比は、人間とLLMが数学的概念を推論し一般化する方法の根本的な違いを強調している。
関連論文リスト
- From Tokens to Thoughts: How LLMs and Humans Trade Compression for Meaning [63.25540801694765]
大きな言語モデル (LLMs) は言語能力を示すが、同じバランスをとれるかどうかは不明だ。
本稿では,LLMと人間を定量的に比較するために,Information Bottleneckの原理を適用した。
論文 参考訳(メタデータ) (2025-05-21T16:29:00Z) - Non-literal Understanding of Number Words by Language Models [33.24263583093367]
人間は自然に、文脈、世界知識、話者意図を組み合わせた、意味のない数字を解釈する。
大規模言語モデル (LLM) も同様に数字を解釈し, ハイパボラ効果と実効ハロ効果に着目した。
論文 参考訳(メタデータ) (2025-02-10T07:03:00Z) - Can DPO Learn Diverse Human Values? A Theoretical Scaling Law [7.374590753074647]
嗜好学習は、人間のフィードバックに基づいて、好ましくない反応と好ましくない反応を区別するモデルを訓練する。
本稿では,値の多様性とサンプル量とともに一般化がいかにスケールするかを解析するための新しい理論的枠組みを提案する。
我々のフレームワークは、有限個の勾配ステップの後、モデルがどのように一般化するかを厳格に評価する。
論文 参考訳(メタデータ) (2024-08-06T22:11:00Z) - A Theory of Response Sampling in LLMs: Part Descriptive and Part Prescriptive [53.08398658452411]
大規模言語モデル(LLM)は、自律的な意思決定にますます活用されている。
このサンプリング行動が人間の意思決定と類似していることが示される。
統計的ノルムから規範的成分へのサンプルの偏りは、様々な現実世界の領域にまたがる概念に一貫して現れることを示す。
論文 参考訳(メタデータ) (2024-02-16T18:28:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。