論文の概要: Unveiling the Learning Mind of Language Models: A Cognitive Framework and Empirical Study
- arxiv url: http://arxiv.org/abs/2506.13464v1
- Date: Mon, 16 Jun 2025 13:24:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:48.49272
- Title: Unveiling the Learning Mind of Language Models: A Cognitive Framework and Empirical Study
- Title(参考訳): 言語モデルの学習マインドを開放する:認知的枠組みと実証的研究
- Authors: Zhengyu Hu, Jianxun Lian, Zheyuan Xiao, Seraphina Zhang, Tianfu Wang, Nicholas Jing Yuan, Xing Xie, Hui Xiong,
- Abstract要約: 大規模言語モデル(LLM)は、数学、コーディング、推論といったタスクにまたがる印象的な機能を示している。
しかし、彼らの学習能力は、動的環境に適応し、新しい知識を得るのに不可欠であり、まだ過小評価されていない。
- 参考スコア(独自算出の注目度): 50.065744358362345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have shown impressive capabilities across tasks such as mathematics, coding, and reasoning, yet their learning ability, which is crucial for adapting to dynamic environments and acquiring new knowledge, remains underexplored. In this work, we address this gap by introducing a framework inspired by cognitive psychology and education. Specifically, we decompose general learning ability into three distinct, complementary dimensions: Learning from Instructor (acquiring knowledge via explicit guidance), Learning from Concept (internalizing abstract structures and generalizing to new contexts), and Learning from Experience (adapting through accumulated exploration and feedback). We conduct a comprehensive empirical study across the three learning dimensions and identify several insightful findings, such as (i) interaction improves learning; (ii) conceptual understanding is scale-emergent and benefits larger models; and (iii) LLMs are effective few-shot learners but not many-shot learners. Based on our framework and empirical findings, we introduce a benchmark that provides a unified and realistic evaluation of LLMs' general learning abilities across three learning cognition dimensions. It enables diagnostic insights and supports evaluation and development of more adaptive and human-like models.
- Abstract(参考訳): 大規模言語モデル(LLM)は、数学、コーディング、推論といったタスクにまたがる印象的な能力を示しているが、その学習能力は、動的環境への適応と新しい知識獲得に不可欠である。
本研究では,認知心理学と教育に触発された枠組みを導入することで,このギャップに対処する。
具体的には、インストラクタからの学習(明示的な指導による知識獲得)、概念からの学習(抽象構造を内部化し、新しい文脈に一般化)、経験からの学習(蓄積された探索とフィードバックを通じて適応)の3つの異なる相補的な側面に、一般的な学習能力を分解する。
我々は3つの学習領域にまたがる総合的な実証的研究を行い、いくつかの洞察力のある発見を同定する。
i)相互作用は学習を改善する;
(二)概念的理解は、スケール・エマージェントであり、より大きなモデルに利益をもたらす。
3) LLM は実効的な数点学習者であるが,多点学習者ではない。
本研究の枠組みと経験的知見に基づいて,3つの学習認知領域にわたるLLMの一般学習能力を統一的かつ現実的に評価するベンチマークを提案する。
診断的洞察を可能にし、より適応的で人間的なモデルの評価と開発を支援する。
関連論文リスト
- Refine Knowledge of Large Language Models via Adaptive Contrastive Learning [54.61213933999464]
方法の主流は、大規模言語モデルの知識表現を最適化することで幻覚を減らすことである。
知識を精錬するモデルのプロセスは、人間の学習方法から大きな恩恵を受けることができると私たちは信じています。
人間の学習過程を模倣することで,適応的コントラスト学習戦略を設計する。
論文 参考訳(メタデータ) (2025-02-11T02:19:13Z) - Large Language Models and Cognitive Science: A Comprehensive Review of Similarities, Differences, and Challenges [14.739357670600102]
本稿では,Large Language Models(LLM)と認知科学の交わりについて概観する。
我々は,LLMの認知能力を評価する手法を分析し,認知モデルとしての可能性について議論する。
我々はLLMの認知バイアスと限界を評価し,その性能向上手法を提案する。
論文 参考訳(メタデータ) (2024-09-04T02:30:12Z) - Chain-of-Knowledge: Integrating Knowledge Reasoning into Large Language Models by Learning from Knowledge Graphs [55.317267269115845]
Chain-of-Knowledge (CoK)は知識推論のための包括的なフレームワークである。
CoKにはデータセット構築とモデル学習の両方のための方法論が含まれている。
KnowReasonで広範な実験を行う。
論文 参考訳(メタデータ) (2024-06-30T10:49:32Z) - Exploring the Cognitive Knowledge Structure of Large Language Models: An
Educational Diagnostic Assessment Approach [50.125704610228254]
大規模言語モデル(LLM)は、様々なタスクにまたがる例外的なパフォーマンスを示すだけでなく、知性の火花も示している。
近年の研究では、人間の試験における能力の評価に焦点が当てられ、異なる領域における彼らの印象的な能力を明らかにしている。
ブルーム分類に基づく人体検査データセットであるMoocRadarを用いて評価を行った。
論文 参考訳(メタデータ) (2023-10-12T09:55:45Z) - Unleash Model Potential: Bootstrapped Meta Self-supervised Learning [12.57396771974944]
機械学習の長期的な目標は、監督なしで少数のデータから一般的な視覚表現を学習することである。
自己指導型学習とメタラーニングは、この目標を達成するための2つの有望なテクニックであるが、どちらもメリットを部分的に捉えているだけである。
本稿では,人間の学習過程をシミュレートすることを目的とした,ブートストラップ型メタ自己監視学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-28T02:49:07Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。